GPT Workspace GPT Workspace

Kontekstvinduet: AI-ens «minne»

Kjernen i LLM-forståelse Når du interagerer med en stor språkmodell (LLM) som ChatGPT, husker den faktisk dine tidligere meldinger i den pågående samtalen. Denne evnen skyldes hovedsakelig

Liubov Shchigoleva
Liubov Shchigoleva Forfatter
·
20. januar 2024
Kontekstvinduet: AI-ens «minne»

Kjernen i LLM-forståelse

Når du interagerer med en stor språkmodell (LLM) som ChatGPT, husker den faktisk dine tidligere meldinger i den pågående samtalen. Denne evnen skyldes hovedsakelig det som kalles «kontekstvinduet». AI-modellens arbeidsminne kan sammenlignes med menneskets korttidshukommelse eller en datamaskins RAM. Akkurat som korttidshukommelsen hjelper oss med å holde og behandle informasjon midlertidig, og RAM lar en datamaskin raskt få tilgang til dataene den trenger i øyeblikket, bestemmer en AIs arbeidsminne hvor mye informasjon den kan håndtere samtidig. Denne kapasiteten begrenser hvor mye kontekst AI-en kan ta hensyn til når den svarer på spørsmål, på samme måte som vår korttidshukommelse eller en datamaskins RAM setter grenser for hva som kan behandles samtidig.

Enkelt sagt kan du forestille deg kontekstvinduet som mengden tekst AI-en kan «lese» og «holde i tankene» samtidig. Jo større dette vinduet er, desto flere detaljer kan AI-en huske fra samtalen din eller analysere fra lange dokumenter uten å «glemme» det som ble sagt tidligere.

Hva er kontekstvinduet?

I motsetning til mennesker som behandler ord, bryter LLM-er ned tekst i «tokens». En token kan være et enkelt tegn, en del av et ord, et helt ord eller til og med en kort frase. For eksempel kan ordet «amoral» ha to tokens: «a» og «moral».

Størrelsen på kontekstvinduet måles alltid i tokens. I gjennomsnitt er et engelsk ord omtrent 1,5 tokens. Det er viktig å merke seg at kontekstvinduet ikke bare brukes til teksten din; det inkluderer også elementer som systeminstruksjoner (kalt «system prompts»), tilleggsinformasjon for Retrieval Augmented Generation (RAG) og formatering. En system prompt er en instruksjon gitt til AI-en for å veilede hvordan den skal oppføre seg eller svare. For eksempel, hvis du ber AI-en om å svare på en profesjonell måte, er den kommandoen en system prompt: «Vennligst svar på alle spørsmål i en profesjonell og høflig tone.»

Hvorfor er det så viktig?

Et større kontekstvindu gir betydelige fordeler for LLM-er:

Forbedret informasjonsbevaring: AI-en kan huske flere detaljer gjennom en samtale, noe som hindrer den i å «miste tråden».

Behandling av lengre tekster: Modeller kan analysere og sammenfatte mye større dokumenter, kodebaser eller datasett, noe som tidligere var umulig.

Avansert resonnering: Økt kontekst muliggjør mer nøyaktige, komplekse og nyanserte svar. For eksempel klarte Googles Gemini 1.5 Pro-modell å lære seg å oversette et kritisk truet språk (Kalamang) ved å lese dens eneste grammatikkmanual, og viste oversettelsesevne sammenlignbar med et menneske.

Nye interaksjonsmuligheter: Den økte databehandlingskapasiteten åpner for helt nye måter for brukere å interagere med AI på, og muliggjør mer komplekse og omfattende oppgaver.

Utfordringer med store kontekstvinduer

Til tross for fordelene deres, presenterer store kontekstvinduer utfordringer:

Beregningskostnad og kraft: Å behandle større tekstblokker krever betydelig mer beregningskraft, minne og tid. Å doble kontekstlengden kan firedoble beregningsbehovet.

Latens: Inferens kan bli tregere ettersom kontekstlengden øker, noe som er problematisk for sanntidsapplikasjoner.

«Nålen i høystakken»-problemet: Etter hvert som tekstmengden («høystakken») vokser, kan en modell slite med å finne en spesifikk, avgjørende detalj («nålen»). Dens oppmerksomhet blir utvannet, noe som får den til å overse det viktige faktumet – som å gå glipp av en enkelt setning om et prosjekts kritiske svikt i en 200-siders rapport. Dette reduserer modellens pålitelighet og nøyaktighet drastisk.

For en dypere innsikt, se det grunnleggende arbeidet om dette problemet: https://arxiv.org/abs/2307.03172

Utviklingen av kapasiteter

Kontekstvindustørrelser har vokst betydelig over tid, noe som markerer et stort skritt mot dypere forståelse og bredere situasjonsbevissthet i AI-systemer. Mens tidlige LLM-er som GPT-2 var begrenset til rundt 2048 tokens, har moderne modeller sett en eksplosjon i sine kapasiteter.

I dag tilbyr modeller som Anthropics Claude 3 et 200 000-tokens vindu. OpenAIs GPT-4 Turbo og GPT-4o når 128 000 tokens. Google Gemini 1.5 Pro har et standard 128 000-tokens vindu, med en eksperimentell versjon som går opp til 1 million tokens, og forskning som tester opp til 10 millioner tokens. Prosjekter som Magic AI sikter til og med mot 100 millioner tokens. Dette kappløpet om å øke konteksten er en nøkkelindikator på innovasjon og konkurranse innen AI-feltet.

Følgende tabell illustrerer utviklingen av kontekstvindukapasiteter:

ModellKontekstvindu (tokens)Beskrivelse
GPT-4 Turbo128 000Optimalisert, lavere kostnadsversjon
GPT-4o (Omni)128 000Multimodal (tekst, bilde, lyd)
Claude 3 Opus200 000Massivt kontekstvindu
Claude 3.5/4200 000Utvidet kontekst, sterk resonnering
Gemini 1.5 Pro128 000 (opptil 1M eksperimentell)Multimodal, stort kontekstvindu
Gemini 2.0 / 2.5 Pro128 000Forbedrede kapasiteter

Balansering av kraft og praktiskhet

Kontekstvinduet er grunnleggende for «minnet» og forståelsen til store språkmodeller. Dets størrelse, målt i tokens, påvirker direkte en LLMs evne til å generere sammenhengende tekst og håndtere komplekse oppgaver.

Selv om større kontekstvinduer forbedrer AI-kapasiteter betydelig, kommer de med betydelige utfordringer knyttet til kostnad, ytelse og sikkerhet. Fremtidig LLM-utvikling vil fortsette å fokusere på å optimalisere denne kritiske komponenten, og søke det «søte punktet» mellom prosesseringskraft og praktisk brukervennlighet. Å forstå kontekstvinduet er derfor avgjørende for alle som ønsker å få mest mulig ut av nåværende og fremtidige AI-verktøy.

Å forstå kontekstvinduet er spesielt relevant for GPT Workspace, da det direkte påvirker hvor mye informasjon våre nåværende modeller – GPT-4.1 og GPT-4o – kan huske og behandle samtidig. Begge modellene tilbyr et betydelig kontekstvindu på opptil 128 000 tokens, noe som gjør dem svært praktiske for utvidede diskusjoner, dokumentanalyse og komplekse arbeidsflyter. Denne kapasiteten gjør at brukere kan benytte lange dokumenter eller interaksjoner uten ofte å miste tidligere kontekst, noe som er avgjørende for å opprettholde sammenhengende, produktive økter i GPT Workspace.

Opplev store kontekstvinduer i Google Workspace. Installer GPT Workspace og bruk GPT-4o med 128k kontekst direkte i Google Docs, Sheets, Slides og Gmail.

FREE TO INSTALL

Start using AI in Google Workspace

Join 7M+ professionals who write faster, analyze smarter, and collaborate better with GPT Workspace.