Hjem
Ansattsider

Verktøy basert på kunstig intelligens i utdanning

Denne nettsiden gir en kort innføring i hva generativ kunstig intelligens er, og rammene rundt bruken av disse verktøyene ved UiB.

Illustrasjonen viser et eksempel på ChatGPT.
Foto/ill.:
Colourbox

Hovedinnhold

Bruken av språkmodellen ChatGPT og lignende tjenester har fått allmenn utbredelse siden lanseringen av ChatGPT seint i 2022. Generativ kunstig intelligens (KI) bringer med seg mange muligheter, men innebærer også noen utfordringer.

Hva er generativ kunstig intelligens? 

  • Samlebetegnelse: Generativ kunstig intelligens er en samlebetegnelse for ulike modeller som kan produsere tekst, bilde, video, med mer, ut fra den gitte inndataen. ChatGPT er et av mange slike verktøy som bruker generativ kunstig intelligens til å produsere tekst. Som bruker kan man stille verktøy som ChatGPT spørsmål og få tilsynelatende troverdige svar tilbake. Ettersom ChatGPT er den mest brukte tjenesten for produksjon av tekst ved hjelp av generativ kunstig intelligens, vil denne brukes som eksempel. Andre verktøy som Bing chat fra Microsoft og Bard fra Google vil kunne fungere tilsvarende som ChatGPT.
     
  • Trenger å bli trent opp: For at generativ kunstig intelligens skal kunne produsere innhold trenger den først å bli trent opp. Denne treningen finner sted ved at modellen mates, og læres opp på data. Under treningen identifiseres sammenhenger i dataene, og det er disse sammenhengene som gjør at modellen kan produsere innhold som oppleves som nyskapende eller originalt. 
     
  • Ikke nødvendigvis en pålitelig kilde: Det er viktig å understreke at det er modeller som produserer innhold. Selv om en samtalerobot for eksempel er opplært med omfattende mengder data fra hele verden, betyr ikke det nødvendigvis at den er en pålitelig kilde til informasjon. Hver gang man stiller samtaleroboten et spørsmål vil den i bakgrunnen generere flere forskjellige svar, beregne sannsynligheten for at svaret er optimalt og presentere dette. Derfor fungerer ikke roboten som en søkemotor med tilgang til all den informasjonen den er blitt trent
    på, og må ikke forveksles med søking av informasjon i en database. 
     
  • Stort potensiale: Samtidig er det et stort potensial i disse modellene, noe som var tematisert under UiB AIs seminar UiB AI #5 ChatGPT – trussel eller mulighet i forskning og utdanning? (youtube.com) Seminaret omhandlet betydningen utviklingen innen AI-verktøy har for forskning og utdanning.

Fallgruver ved bruk av generative modeller 

Du vet aldri hvilke data modellen er trent på 

Som nevnt over må enhver generativ modell trenes på et sett med data. Hvilke data som blir brukt under opplæringen vil i svært stor grad kunne påvirke hvilke resultater man får ut, og dette er noe man må være bevisst på når man mottar en respons fra den generative modellen. På samme måte som at meningene og holdningene våre kan bli formet av informasjonen vi har, vil generative modeller produsere innhold i tråd med dataene de er trent på. Som bruker av disse tjenestene kan du aldri være sikker på hvilke data som er blitt brukt i opplæringen, med mindre tjenestene har gjort dette tilgjengelig på en måte som kan gjennomgås. Selv om generativ kunstig intelligens kan være nyttige verktøy, er domene-ekspertise i det aktuelle fagområdet helt nødvendig for å kunne vurdere påliteligheten til innholdet disse verktøyene produserer.  

For mer informasjon om hvordan data kan, og har påvirket kunstig intelligens til å gjøre feilslutninger, se f.eks. Rise of AI Puts Spotlight on Bias in Algorithms - WSJ 

Modellen er et resultat av dataene den er trent på – Søppel inn = søppel ut 

Selv om man vet hvilke data en modell er trent på, er det ikke nødvendigvis slik at den produserer fornuftige resultat. Kort forklart kan man si at en modell som benytter data av høy kvalitet, som oftest vil produsere innhold av høy kvalitet. Tilsvarende vil en modell som er trent på data av lav kvalitet produsere innhold av lav kvalitet. 

Som bruker av disse tjenestene kjenner man ikke til kvaliteten på dataene eller hvordan disse er prosessert. Dersom man stoler blindt på resultatet av en generativ modell risikerer man derfor at man tar i bruk upålitelige svar. Spør man ChatGPT hvem som var rektor ved UiB i 1955, får man som svar at dette var Asbjørn Øverås, og ikke Erik Waaler som er riktig. Dette er et eksempel på faktafeil, noe man kan lese mer om i professor Jill Walker Rettberg sin kronikk i NRK.

Bildet viser et eksempel på faktafeil ved bruk av ChatGPT.
Foto/ill.:
UiB

Du har ikke kontroll på data du sender inn 

Ved å ta i bruk generative modeller på internett sender man informasjon til servere man ikke nødvendigvis vet hvor befinner seg. EU har et svært strengt regelverk som regulerer hva bedrifter kan og ikke kan gjøre med opplysningene dine, men for nettbaserte tjenester er det er ingen garanti for at de opererer i EU/EØS i henhold til dette regelverket.  

Med mindre bedriften som leverer modellen man bruker har forpliktet seg til å håndtere dataene dine på en fornuftig måte risikerer man at disse brukes for å trene opp andre modeller, eller av ulike grunner kommer på avveie. Det er derfor svært viktig at man er bevisst på hvilke data man sender, i likhet med de fleste øvrige tjenester på internett. 

Eksempelvis er studenters arbeid som eksamensbesvarelser ikke lov å sende til generative modeller, ettersom eksamensbesvarelser er å regne som personopplysninger. I alle tilfeller hvor UiB skal sende personopplysninger til en tredjepart må det foreligge en databehandleravtale. 

Språkmodeller har et begrenset virkeområde 

Ved første øyekast kan det virke som om ChatGPT og lignende språkmodeller fungerer svært likt som mennesker når det gjelder det å tenke og resonnere. Det er likevel flere ting som ChatGPT simpelthen ikke kan gjøre fordi den er en språkmodell. Den kan for eksempel ikke huske fakta, og vil ofte fremføre, «hallusinere» faktafeil på en svært overbevisende måte. ChatGPT kan heller ikke gjøre beregninger, avveie, resonnere eller tenke logisk.

Hva betyr dette for deg som underviser og ansatt? 

Digitalisering, teknologi og kunstig intelligens endrer fagene våre og arbeidslivet på tvers av bransjer. I fremtiden vil kombinasjonen av spesialisert fagkunnskap og digital forståelse være avgjørende i både arbeids- og samfunnsliv.

Det ble nylig gjennomført en undersøkelse om bruken og syn på Chatbots og andre verktøy basert på kunstig intelligens blant studenter i Sverige. Majoriteten av studentene er positiv til slike verktøy og mener at de gjør læringsprosessen mer effektiv. Samtidig utrykker mer enn halvparten en bekymring rundt virkningen av chatbots for fremtidig utdanning, men er mindre bekymret for andre KI-baserte språkverktøy. Mer enn seksti prosent av studentene mener at bruk av chatbots under eksamen er fusk, men majoriteten av studenter er i mot et forbud mot KI-baserte verktøy i utdanningene. Les mer i oppsummeringen av undersøkelsen.  

Fremveksten av nye og tilgjengelige verktøy har ulike implikasjoner for ulike fag og disipliner. Det er derfor viktig at fagmiljøene selv vurderer bruken av slike verktøy i sine emner og studieprogram. Felles for alle fagmiljø gjelder at juridiske rammer, regelverk for plagiat og fusk, og for kildeføring må respekteres.  

Betydningen av verktøy for kunstig intelligens for læring og undervisning 

Generative modeller har et vidt spekter av måter de kan benyttes på i en undervisnings- og læringssituasjon. Fagmiljøene må selv vurdere hvordan og i hvilken grad verktøyet kan benyttes i egne emner og studieprogram, og tydeliggjøre premissene for bruk overfor studentene i emnebeskrivelser og aktuelle kommunikasjonskanaler. Uavhengig av om generative modeller er tillatt i vurderingssituasjonen, er det ulike måter studenter kan benytte slike modeller for å tilegne seg kunnskap, ferdigheter og generell kompetanse. Studenter kan eksempelvis benytte slike verktøy til å få laget en oppsummering av sine forelesningsnotater som sammenhengende tekst, utarbeiding av "puggekort" (flash cards), og som en sparringspartner som kan forklare ulike deler av pensum.
Andre eksempler kan være at for eksempel ChatGPT eller lignende, kan hjelpe en student gjennom å stille spørsmål fra et kjent pensum eller å utbedre tekster.

Studentene vil i eksempelet over ha benyttet seg av generative modeller for å tilegne seg kunnskap under egenstudier, som så kan brukes i en vurderingssituasjon. Dette kan sammenlignes med å samarbeide med andre studenter, noe som generelt oppfordres til som en del av egenstudiet, men som vanligvis ikke er lov i vurderingssituasjoner. I tillegg vil studentene tilegne seg ferdigheter når det gjelder bruken av denne type verktøy.  

I hvilken grad studenter velger å bruke slike verktøy i egenstudier avhenger i stor grad av studentenes ferdigheter og interesse for disse. For å legge til rette for at studentene tilegner seg slike ferdigheter, kan undervisningsopplegget aktivt inkludere verktøy basert på kunstig intelligens. 

Gjennom en utforskende tilnærming til slike verktøy kan man få innsikt i positive effekter på læring og konstruktiv bruk av teknologi, samt kritisk refleksjon og tenkning rundt bruken av slike verktøy.  

I flere emner på UiB har ChatGPT blitt brukt som en del av undervisningen. Våren 2023 har de i INF100 brukt tid på å presentere hva ChatGPT er, nemlig en språkmodell, og at en skal være forsiktig med å kalle det kunstig intelligens. Foreleser viste studentene gode og dårlige svar på spørsmål stilt til ChatGPT, og studentene fikk lov til å bruke ChatGPT i sine besvarelser så lenge de siterte bruken og var sikre på at de kunne faget godt nok til å vurdere verktøyets nøyaktighet. 

I INF250 ble studentene som tok emnet våren 2023 bedt om å generere kode ved å bruke ChatGPT for å visualisere et datasett. Studentene ble bedt om å levere koden som ChatGPT produserte, samt en refleksjon over opplevelsen av å bruke ChatGPT, som hvor lett/vanskelig det var å få ønsket resultat, om koden var korrekt, hvordan visualiseringen så ut m.m. 

Våren 2023 jobbet studentene i DIKULT304 med AI. Her ble studentene gjort oppmerksomme på at ChatGPT og andre KI-modeller er verktøy med begrensninger. De diskuterte for eksempel kildekritikk og referering i kunstig intelligens, og KI- modellens tendens til å finne opp ting som ikke har blitt sagt eller gjort. I flere emner på Digital Kultur bruker de Spannagel’s «Rules for Tools» som en veileder for bruk av ChatGPT og andre KI-modeller i deres emner. 

I emnet MUTP104 har studentene våren 2023 jobbet med hvilke spørsmål en kan stille slike verktøy med et sterkt fokus på kildekritikk. Stemmer det med studentenes egen oppfatning, og er det andre kilder som kan underbygge dette? 

Ved flere emner ved Det medisinske fakultet er det tatt i bruk KI-Chatboter til å lage forslag til kollokvieoppgaver, eksamensoppgaver eller quizer i undervisningen. Et konkret eksempel fra Det medisinske fakultet er MED6, hvor foreleser har på generell basis tatt for seg hvordan kunstig intelligens kan benyttes innen medisinen, både hvilke fordeler det har, og hvilke utfordringer det kan by på. 

Betydningen av verktøy for kunstig intelligens i vurdering  

Det store spennet i bruken av generative modeller blir tydeligst i vurderingssituasjoner. I ytterkantene finner man på den ene siden "ingen bruk" av generative modeller, og på den andre siden "omfattende bruk", hvor den generative modellen har produsert hele innholdet. Avhengig av hvilken linje man legger seg på i eget fag, vil det kunne oppstå gråsoner for hva som er akseptabel bruk. Bruken må uansett respektere gjeldende regelverk for plagiat og fusk, samt kildeføring.  

Dersom man legger seg på en linje hvor generative modeller i noen grad benyttes som en del av vurderingen, kan det potensielt dukke opp noen gråsoner. Hva skjer dersom en student har skrevet en tekst uten bruk av generative modeller, men bruker et verktøy for å kutte ned på antall ord for å komme innenfor ordgrensen? I hvilken grad er teksten fremdeles studentens eget selvstendige arbeid? Dersom modellen kun fjerner og ikke legger til, vil studenten ha brukt generative modeller, men kan man si at studenten har produsert innholdet selv? 

Et annet eksempel kan være å bruke generative modeller til å rette opp i språklige og grammatiske feil. I en vurderingssituasjon hvor det er språk og grammatikk som blir vurdert vil man sannsynligvis ikke tillate dette, men i tilfeller hvor det er andre aspekter ved studentenes læringsutbytte som blir vurdert, kan det være rom for å tillate bruken av generative modeller til dette.  

En tredje måte studenten kan benytte seg av generative modeller på, er å be modellen om å kritisere eller gi tilbakemeldinger på innleveringer. Dersom man som underviser har publisert vurderingskriterier for en oppgave, kan studentene bruke vurderingskriteriene sammen med det de selv har skrevet, og mate dette inn i en modell. Studentene kan da f.eks. be modellen ta utgangspunkt i vurderingskriteriene, emnebeskrivelsen, og annen relevant informasjon og gi tilbakemelding på form og innhold. 

Avhengig av hvordan man legger opp undervisningen og vurderingen i et emne, vil det være svært ulike problemstillinger man bør ta stilling til. Dersom generative modeller tillates i et emne, skal studentene måtte legge ved samtalene de har hatt med modellene? Når er det eventuelt dette skal bli gjort? Og, blir samtaleloggen også en del av vurderingsgrunnlaget?  

Dersom man velger å gå for en vurdering hvor studentene ikke skal kunne bruke generative modeller, må man tenke gjennom hvilken vurderingsform man skal benytte seg av, og hvordan man skal avdekke eventuelt juks. Siden de generative modellene krever internettilgang, kan man sikre seg mot bruken av disse ved å benytte seg av saleksamen uten tilgang til internett. Selv om det å bruke saleksamen kan være et godt virkemiddel for å hindre bruk av generative modeller, er det ikke nødvendigvis ønskelig dersom man har ambisjoner om f.eks. å bruke formative vurderingsformer. 

Ved andre vurderingsformer enn saleksamen må man derfor tenke gjennom hvilke oppgaver man gir studentene, slik at disse ikke enkelt kan besvares av en generativ modell. Universitet i Oslo har løftet frem viktige implikasjoner denne teknologien har for høyere utdanning og laget forslag til gode vurderingspraksiser på kort og lengre sikt som ikke kan besvares av generativ AI som Chat GPT.  Les om forslagene på denne siden: Kunstig intelligens - hvordan kan vi respondere.

På kortere sikt foreslås det å vektlegge kritisk refleksjon som får frem studentenes synspunkter, synliggjør tankeprosesser underveis i arbeidet, og som vektlegger å skape noe nytt. Gjennom å knytte oppgaver spesifikt til pensum eller dagsaktuelle problemstillinger blir det vanskeligere å benytte Chat GPT for å besvare oppgavene. Vurderingsformer knyttet til ulike formater som for eksempel video, presentasjoner og muntlige vurderinger, prosjektarbeid, mappevurderinger eller vurderingsformer der studentene får tilbakemeldinger underveis og forbedrer sitt arbeid kan også begrense mulighetene for å benytte Chat GPT. På lengre sikt foreslås det å endre fokuset fra kontroll av læring til prosessen med å lære og å utforske hvordan verktøy basert på kunstig intelligens kan inngå for å støtte læringen.

Hvilke verktøy basert på kunstig intelligens kan jeg bruke?

Som en del av Microsoft-pakken til UiB, har alle ansatte tilgang til Microsoft Copilot (tidligere Bing Chat Enterprise), Microsoft sin samtalerobot som bruker Open AI sin GPT 4-modell. Dette er den samme modellen som brukes i den betalte versjonen av ChatGPT, og gjør det mulig å bruke både tekst og bilder som input, eller «prompts», når du bruker tjenesten. 

Fordi UiB har en databehandleravtale med Microsoft, kan man nå ta i bruk verktøy basert på kunstig intelligens på en trygg måte.  Løsningen er imidlertid ikke godkjent for fortrolig eller strengt fortrolig informasjon.

Les mer om Microsoft Copilot i nyhetssaken Trygg ChatGPT-tjeneste for alle.

Juridiske rammer 

Verktøy for kunstig intelligens og GDPR

En av utfordringene med bruken av kunstig intelligens verktøy som ChatGPT og personvernregelverket (GDPR), er at dataene som brukes til å trene verktøyene kan inneholde personopplysninger. Disse personopplysningene er hentet inn i verktøyet fra ulike kilder, både fra internett og fra brukerne. Det er usikkert om disse personopplysningene er hentet inn på lovlig vis, og datatilsyn fra flere land har vært skeptiske til slike tjenester av denne grunn.  

Brukere må vite at løsninger som bygger på kunstig intelligens bruker det som skrives inn eller lastes opp til å forbedre tjenesten. Det vil si at personopplysninger som legges inn blir lagret og brukt videre. Vær klar over at forespørsler som sendes inn i tjenesten kan inneholde sensitiv personinformasjon. 

Ifølge Datatilsynet må virksomheter spesielt passe på: 

  • at virksomhetens eget oppsett og konfigurasjon av tjenester krever teknisk kompetanse for å unngå at det skapes sårbarheter (i likhet med skytjenester mer generelt) 

  • at implementasjon og integrasjon av kunstig intelligens verktøy krever tiltak for egen informasjonssikkerhet og egen personopplysningssikkerhet (i tillegg til tjenestens egne tiltak) 

  • å være bevisst på at forespørsler som sendes inn og responderer på disse kan kunne lagres i tjenestetilbyders egen historikk eller benyttes av tjenestetilbyder for "videreutviklingsformål". 

Les mer på datatilsynets hjemmesider: Datatilsynet følger med på utviklingen av ChatGPT 

Som underviser må man være oppmerksom på at man ikke kan pålegge studenter å bruke tjenester som UiB ikke har en databehandleravtale med. Dette gjelder per nå f.eks. ChatGPT og andre AI-tjenester. Dersom du er usikker på om tjenesten du ønsker å bruke har en databehandleravtale med UiB kan du sende inn en sak på UiB hjelp.

Akademisk redelighet er en overordnet norm som styrer hva som er forventet av blant andre UiB sine studenter. Vi forventer at studentene stoler på egne ferdigheter, gjør selvstendige vurderinger og tar standpunkt. Generative språkmodeller som ChatGPT og andre generative verktøy reiser spørsmål knyttet til både kildebruk og krav om selvstendighet. Som hovedregel er det et krav om at svaret på eksamen er en selvstendig produsert tekst. Dette gjør at å levere en tekst som helt eller delvis er generert vil bli regnet som fusk, med mindre det er sitert på redelig måte. For mer informasjon, se nettsiden Reielegheit og fusk | Studieavdelingen | UiB

Kildeføring av generative modeller  

Generelt skal det refereres til programvare brukt i akademisk arbeid når programvaren har innvirkning på resultater, analyser eller funn som presenteres. KI -verktøy skal regnes som programvare og ikke som medforfatter da enhver tilskrivning av forfatterskap medfører ansvar for arbeidet, og KI-verktøy kan ikke ta på seg et slikt ansvar. 

En KI-generert tekst er ikke mulig for andre å gjenskape. I akademiske arbeider bør det derfor fremgå hvordan generatoren er brukt. For eksempel tidspunkt og omfang, og hvordan resultatet ble inkludert i teksten. Ofte er det aktuelt å gjengi det som er skrevet inn i chatten.  Ved et langt svar fra tekstgeneratoren kan dette legges som vedlegg. Vær oppmerksom på at det kan finnes fagspesifikke føringer for hvordan bruken skal dokumenteres da KI-verktøy kan ha ulik bruk i ulike fag.

Eksempelet under viser hvordan man refererer til KI-generert tekst i referansestilen APA7:  

  • I teksten: tekst (OpenAI, 2023) 
  • I referanselisten: OpenAI. (2023). ChatGPT (20. april-versjon) [Stor språkmodell]. https://chat.openai.com/. 

DIGI-emner ved UiB 

Siden høsten 2022 har mange studenter ved UiB benyttet seg av tilbudet om å bygge digital forståelse, kunnskap og kompetanse gjennom DIGI emnepakken. Fra om med høsten 2023 kan også alle ansatte ta emnene. 

DIGI101 - Digital kildekritikk har blitt oppdatert med en ny modul om «Vitenskap i kunstig intelligens», som tar for seg bruken av samtaleroboter. Modulen gir en oversikt over hva som kjennetegner informasjon generert av KI-verktøy og hvordan man kan forholde seg til denne informasjonen.