Mange snakker om hvor mye fantastisk den såkalte kunstige intelligensen kan brukes til. Og like mange advarer mot både bruk og KI i seg selv. Men snakker vi da om det samme? Hva bør KI og språkmodeller konkret brukes til, og hva bør det ikke brukes til?
Her er mitt forslag til trafikklys for bruk av såkalt kunstig intelligens, eller statistisk baserte sannsynlighetsanalyse-/-prediksjonsmodeller som vi like gjerne kan kalle dem.
1. STATISTISK ANALYSE: I form av billedanalyse (f. eks. røntgen) eller store datasett
- Modellene kan gjøre arbeidet raskere og på større datamengder enn mennesker er i stand til.
Med til dels imponerende kvalitet.
Her må jeg legge til at jeg ikke er noen ekspert på kunstig intelligens, og jeg har ingen erfaring med røntgenanalyse eller analyse av store sett med forskningsdata.
Av hva jeg leser og hører, virker KI-teknologien imidlertid å være god på (og opprinnelig også basert på) analyse av enorme datasett, og å identifisere mønstre i disse.
En viktig nøkkel her er at hoveddatagrunnlaget for analyse, og det konkrete målet med analysen, kommer fra brukeren selv.
2. SPØRSMÅL/SVAR: Stille spørsmål og få svar
- Språkmodellene kan gi gode svar på mange tema, og mindre gode på andre tema

- For en som kjenner et fagområde godt nok til å vurdere kvaliteten på svarene, eller har mulighet til å teste ut ulike løsninger for å se hva som fungerer, så kan chatting med en språkmodell gi mange gode svar og dypere forståelse.

- Oversettelse til et språk du kjenner relativt godt vil også være en nyttig bruk av språkmodeller, hvis du vil spare tid og ikke er altfor opptatt av kvaliteten
- For en som ikke kjenner fagområdet, men der det heller ikke er så viktig hva sluttresultatet blir, så kan du alltids få svar fra en språkmodell, og helt sikkert lære noe, selv om det kan være uklart hva som er gode og mindre gode svar.

- Utfordringen oppstår når du ønsker informasjon om et fagområde du ikke kjenner særlig godt fra før, og der du er avhengig av et godt resultat.
Da vil språkmodellen alltid gi overbevisende svar (siden de er spesifikt programmert til å oppføre seg slik), men uten at bruker har forutsetningene til å teste eller vurdere om svarene faktisk er riktige eller gode.
- Fordi:
Språkmodellene er statistisk baserte sannsynlighetsprediksjoner der svarene baserer seg på treningsdataene, som alltid kan inneholde feil. De kan være faktuelt gale uten av språkmodellen har noe konsept om hva som er fakta eller ikke.
Språkmodeller er ikke noe leksikon!
Og kan aldri forstås som en kilde til kunnskap.
Modellene leser kilder i tusentall, men forstår ikke selv hva som er riktig eller feil.
Svarene må alltid sjekkes mot faktiske kilder, f. eks. leksikon eller andre trykte kilder/nettsteder du stoler på, dersom det er viktig at svaret er korrekt.
- Hva da med «egentrente» språkmodeller, såkalte agenter, som f. eks. NotebookLM? Ja, du kan styre output-en til en viss grad, ved f. eks. å laste opp alt pensum og begrense modellen til dette. Det vil redusere faren for «hallusinasjoner», selv om faren ikke blir eliminert. Nyanser du selv ville ment er viktige kan imidlertid også forsvinne i svarene, og tolkninger av pensummaterialet kan være preget av KI-bias.
Og – er du student og ute etter å lære, må du ta hensyn til dette:
3. TANKE- OG KONSENTRASJONSARBEID: Generere tekst og gi oppsummering av tekst.
- Språkmodellene kan generere lange tekster som alltid vil se overbevisende ut, det ligger i modellenes innstillinger å skrive selvsikkert, men teksten kan inneholde feil og tvilsomme tolkninger.
Igjen fordi alle svar er basert på en statistisk analyse av treningsgrunnlaget.
Språkmodellen er ikke en stor og bevisst hjerne!
- Ofte kan resultatet likevel være relativt godt, når det er brukt gode prompts og gjerne oppfølgingsprompts, og bruker har et selvstendig grunnlag for å vurdere kvaliteten.
- Oppsummeringer av tekst (f. eks. dokumenter) vil i mindre grad inneholde faktiske feil, siden de er begrenset i tilfanget av informasjon (teksten).
Men hva som blir tatt med i oppsummeringen vil være avhengig av hva treningsgrunnlaget anser er viktigst, og ikke nødvendigvis det du som leser teksten mener er viktigst. Gode instruksoner/prompts vil hjelpe, men oppsummeringen kan fortsatt inneholde rene feil og feiltolkninger.

- Har du f. eks. en rapport du vet du aldri kommer til å lese, vil det sannsynligvis være bedre å få et sammendrag fra Copilot fremfor aldri å vite hva som står i rapporten.
- Men dersom rapporten er viktig for deg, vil det ikke være mer effektivt å be om et sammendrag. Du må uansett lese hele for å se om sammendraget faktisk får med seg alt det vesentlige.
- Og uansett hvor god kvaliteten blir på svarene:
Hver gang vi bruker språkmodeller til å generere (lengre) tekster eller til å lese lengre tekster for seg, blir vi selv dårligere til nettopp å skrive og å lese.
Dermed blir vi også paradoksalt nok i dårligere og dårligere stand til å bruke språkmodellene effektivt, fordi vi blir dårligere til selv å vurdere kvaliteten på svarene.
Det hjelper ikke å justere på den genererte teksten i etterkant – bruker vi hjernen mindre (og vi bruker ofte språkmodeller for å slippe å bruke hjernen selv), blir vi mindre trente i hjernen.
Akkurat som forskjellen på å ta heisen og trappa for den fysiske helsa di.
Så hvordan kan vi bruke ChatGPT i studiene?
En farbar vei er å alltid først skrive tekster selv, og heller la språkmodellen vurdere teksten basert på kriteriene du oppgir.
Da kan du få innspill som er verdifulle og som du kanskje ikke tenkte på selv.
Og du har fått med deg alle dine egne tanker, uten å bli påvirket av språkmodellen før du fikk tenke selv.
Og du bør for all del fortsatt lese lengre tekster selv!
Hva tenker DU?
Tenk gjerne på andre former for KI-bruk, hvor i trafikklyset det passer best?
Og kommenter gjerne på innlegget 🙂
