Home
Faculty of Psychology

Warning message

There has not been added a translated version of this content. You can either try searching or go to the "area" home page to see if you can find the information there
Kunstig intelligens

Informasjon om bruk av kunstig intelligens ved Det psykologiske fakultet

Det er viktig at du til enhver tid setter deg inn i aktuelle forventninger og spilleregler rundt bruk av kunstig intelligens.

AI-læringskonsept i et serversenter
Photo:
Colourbox.com

Main content

Chatroboten ChatGPT ble lansert i november i 2022 fra OpenAI og er en tekstgenereringsmodell basert på kunstig intelligens (KI). ChatGPT er et eksempel på «generativ kunstig intelligens» basert på det som kalles for en «Large Language Model». Siden mars 2023 har GPT-4, som er en enda mer avansert versjon, blitt tilgjengelig i den betalte versjonen av ChatGPT. Andre KI-modeller som kan generere tekst og bilder, lyd og video, er allerede, eller kommer snart til å være, lett tilgjengelig for alle. Disse modellene er trent opp ved hjelp av maskinlæring og store mengder data, og kan brukes til alt fra å svare på kompliserte spørsmål til å skrive sammendrag eller noveller.  KI-modeller er derfor svært allsidige verktøy som kan være fristende å ta i bruk i ulike sammenhenger.

Disse verktøyene basert på generativ kunstig intelligens har hatt en enorm utvikling og vil påvirke mange av de vanlige arbeidsmetodene vi er vant til, inklusivt innenfor utdanning. Når skal bruk av slike verktøy som ChatGPT beregnes som fusk og akademisk uredelighet? I hvilke sammenhenger blir det et nyttig verktøy som vi som studenter og forskere ønsker å ta i bruk? Når skal det faktisk være en forventning om at studenter skal lære å bruke verktøyer som ChatGPT som en del av den digitale kompetansen fremtidige arbeidsgivere vil forvente de skal kunne anvende? Disse spørsmålene er ikke avgjort enda, og vi er i en overgangsfase der du som student kan oppleve at spillereglene og forventningene rundt bruk av KI-verktøy er i endring, og kan variere fra emne til emne og situasjon til situasjon. Det er derfor viktig at du setter deg inn i hva som er forventet av deg og hva som er kommunisert av emne- og programansvarlige til enhver tid.

Ved Universitetet i Bergen og på Det psykologiske fakultetet er det en forventing om akademisk redelighet, og fusk blir sett på som et alvorlig tillitsbrudd overfor medstudenter, universitetet og samfunnet. Det er derfor viktig å til enhver tid å gjøre seg kjent med hva som er tillatt når det gjelder bruk av hjelpemidler inkludert generative KI-verktøy som ChatGPT. Som hovedregel skal en levere sitt eget arbeid bestående av egne refleksjoner og analyser for å utvikle og forbedre sin egen kompetanse.

I tillegg, er det viktig å være klar over at generative KI-verktøy også har sine klare svakheter. Her vil vi kun peke på tre svakheter, men det finnes også andre utfordringer som etiske dimensjoner av å mate generativ kunstig intelligens-modeller med vårt eget arbeid, mulige problemer med personvern, og sosiale ulikheter med hvem som har tilgang til verktøyene.

1. ChatGPT og andre tekst/bilde-genererende KI modeller har ikke noe tilgang til “virkeligheten”. De fungerer med å forutsi statistisk hvilken rekkefølge av ord som er mest sannsynlig, basert på datasettene som de har blitt trent på. Dette betyr at man kan aldri stole på setningene som modellen skaper – alt innhold må verifiseres. 

2. En av de mest åpenbare svakhetene ved ChatGPT (og tilsvarende) er begrensingene ved datasettet. For det første, forteller OpenAI nesten ingenting om datasettet som modellene er trent på. Ifølge OpenAI, har ChatGPT ingen mulighet til å svare på aktuelle temaer siden datasettet kun går frem til 2021. Enda viktigere er at datasettene (f.eks., deler av internettet slik som wikipedia) er menneskeskapte, og alt som er menneskeskapt bærer preg av menneskers bias og fordommer. I tillegg, finnes det på internettet mye som er rett og slett bare feil: misforståelser og feiltolkninger som er bakt inn i treningsmaterialene. Det er vanskelig å bli kildekritisk når man ikke kan vite hva kildene faktisk er. Og i tillegg til problemer med feil- eller desinformasjon, kommer hverdagslige biaser sannsynligvis til å bli forsterket i svarene som generative kunstig intelligens-modeller returnerer.

3. ChatGPT har også store svakheter når det kommer til kildehenvisning. Kildehenvisningene i tekstene til ChatGPT viser seg ofte å være feil og i noen tilfeller fullstendig oppdiktet, noe som kommer av at ChatGPT bare reproduserer mønster i teksten den er trent på og ikke (per dags dato) har noe mulighet til å aktivt sjekke at kildene er korrekte. ChatGPT kan derfor ikke på noen måte stoles på når det gjelder korrekt kildehenvisning. 

Hvor grensene ligger mellom hva som er eget arbeid og hva som er hjelpemiddel er i noe grad i endring –det er for eksempel selvsagt greit å bruke google scholar og andre KI-styrte søkemotorer til å finne relevante referanser og tekster, og det brukes allerede KI-styrt stave- og grammatikkontroll. Likevel skal både studenter og forskere stå for eget arbeid. Hvis du er usikker, kan det hjelpe å tenke på hva som er greit når det gjelder å få hjelp eller innspill fra en medstudent eller et annet menneske: når går grensen? Å bruke en medstudent som sparringspartner er ofte greit, men å levere et arbeid som du selv ikke har skrevet er aldri, eller nesten aldri, innenfor. Er det greit å be en medstudent eller andre til å komme med en disposisjon til essayet ditt? Hvis ikke, er det fordi det er en del av den kritiske tenkningen som du er her for å utvikle på egen hånd. Det å lære å være akademisk inkluderer også å være kildekritisk. Du må kunne vurdere kilden, og i mange sammenhenger er det forventet at du kan vurdere metoden som har blitt bruke til å komme frem til den kunnskapen du ønsker å referere til. Slike forståelser av hvorfor du studerer på et universitet er viktig å ha med seg.

Når det gjelder studentenes innleveringer, skal det stå i emnebeskrivelse om det er tillatt (eller forventet) at studenter bruker hjelpemidler, inkludert ChatGPT eller tilsvarende generative KI-verktøy. Dersom det er tillatt eller forventet, skal det også stå i instruksen til innleveringen hvordan det er forventet av studentene skal bruke de nye KI-baserte hjelpemidlene.

Bruk av ChatGPT og tilsvarende modeller i en vurdering hvor hjelpemidler ikke er tillatt, bryter ikke bare med Universitetet i Bergens forventninger om akademisk redelighet, men kan i verste tilfelle resultere i et annullert eksamensresultat og utestengelse fra Universitetet i Bergen samt alle universiteter og høgskoler i Norge i to semester.