Verktøy basert på kunstig intelligens i utdanning - for ansatte
Denne nettsiden gir en kort innføring i hva generativ kunstig intelligens er, og rammen rundt bruken av disse verktøyene for ansatte ved UiB.
Hovedinnhold
Bruken av språkmodellen ChatGPT og lignende tjenester har fått allmenn utbredelse siden lanseringen av ChatGPT seint i 2022. Generativ kunstig intelligens (KI) bringer med seg mange muligheter, men innebærer også noen utfordringer.
Hva er generativ kunstig intelligens?
- Samlebetegnelse: Generativ kunstig intelligens er en samlebetegnelse for ulike modeller som kan produsere tekst, bilde, video, med mer, ut fra den gitte inndataen. ChatGPT er ett av mange slike verktøy som bruker generativ kunstig intelligens til å produsere tekst. Som bruker kan man stille verktøy som ChatGPT spørsmål og få tilsynelatende troverdige svar tilbake. Ettersom ChatGPT er den mest brukte tjenesten for produksjon av tekst ved hjelp av generativ kunstig intelligens, vil denne brukes som eksempel. Andre verktøy som Copilot for web fra Microsoft og Bard fra Google vil kunne fungere tilsvarende som ChatGPT.
- Trenger å bli trent opp: For at generativ kunstig intelligens skal kunne produsere innhold trenger den først å bli trent opp. Denne treningen finner sted ved at modellen mates, og læres opp på data. Under treningen identifiseres sammenhenger i dataene, og det er disse sammenhengene som gjør at modellen kan produsere innhold som oppleves som nyskapende eller originalt.
- Ikke nødvendigvis en pålitelig kilde: Det er viktig å understreke at det er modeller som produserer innhold. Selv om en samtalerobot for eksempel er opplært med omfattende mengder data fra hele verden, betyr ikke det nødvendigvis at den er en pålitelig kilde til informasjon. Hver gang man stiller samtaleroboten et spørsmål vil den i bakgrunnen generere flere forskjellige svar, beregne sannsynligheten for at svaret er optimalt og presentere dette. Derfor fungerer ikke roboten som en søkemotor med tilgang til all den informasjonen den er blitt trent på, og må ikke forveksles med søking av informasjon i en database.
- Stort potensiale: Samtidig er det et stort potensial i disse modellene, noe som var tematisert under UiB AIs seminar UiB AI #5 ChatGPT – trussel eller mulighet i forskning og utdanning? (youtube.com). Seminaret omhandlet betydningen utviklingen innen AI-verktøy har for forskning og utdanning.
Fallgruver ved bruk av generative modeller
Du vet aldri hvilke data modellen er trent på
Som nevnt over må enhver generativ modell trenes på et sett med data. Hvilke data som blir brukt under opplæringen vil i svært stor grad kunne påvirke hvilke resultater man får ut, og dette er noe man må være bevisst på når man mottar en respons fra den generative modellen. På samme måte som at meningene og holdningene våre kan bli formet av informasjonen vi har, vil generative modeller produsere innhold i tråd med dataene de er trent på. Som bruker av disse tjenestene kan du aldri være sikker på hvilke data som er blitt brukt i opplæringen, med mindre tjenestene har gjort dette tilgjengelig på en måte som kan gjennomgås. Selv om generativ kunstig intelligens kan være nyttige verktøy, er domene-ekspertise i det aktuelle fagområdet helt nødvendig for å kunne vurdere påliteligheten til innholdet disse verktøyene produserer.
For mer informasjon om hvordan data kan, og har påvirket kunstig intelligens til å gjøre feilslutninger, se f.eks. Rise of AI Puts Spotlight on Bias in Algorithms - WSJ
Modellen er et resultat av dataene den er trent på – Søppel inn = søppel ut
Selv om man vet hvilke data en modell er trent på, er det ikke nødvendigvis slik at den produserer fornuftige resultat. Kort forklart kan man si at en modell som benytter data av høy kvalitet, som oftest vil produsere innhold av høy kvalitet. Tilsvarende vil en modell som er trent på data av lav kvalitet produsere innhold av lav kvalitet.
Som bruker av disse tjenestene kjenner man ikke til kvaliteten på dataene eller hvordan disse er prosessert. Dersom man stoler blindt på resultatet av en generativ modell risikerer man derfor at man tar i bruk upålitelige svar. Spør man ChatGPT hvem som var rektor ved UiB i 1955, får man som svar at dette var Asbjørn Øverås, og ikke Erik Waaler som er riktig. Dette er et eksempel på faktafeil, noe man kan lese mer om i professor Jill Walker Rettberg sin kronikk i NRK.
Du har ikke kontroll på data du sender inn
Ved å ta i bruk generative modeller på internett sender man informasjon til servere man ikke nødvendigvis vet hvor befinner seg. EU har et svært strengt regelverk som regulerer hva bedrifter kan og ikke kan gjøre med opplysningene dine, men for nettbaserte tjenester er det er ingen garanti for at de opererer i EU/EØS i henhold til dette regelverket.
Med mindre bedriften som leverer modellen man bruker har forpliktet seg til å håndtere dataene dine på en fornuftig måte risikerer man at disse brukes for å trene opp andre modeller, eller av ulike grunner kommer på avveie. Det er derfor svært viktig at man er bevisst på hvilke data man sender, i likhet med de fleste øvrige tjenester på internett.
Eksempelvis er studenters arbeid som eksamensbesvarelser ikke lov å sende til generative modeller, ettersom eksamensbesvarelser er å regne som personopplysninger. I alle tilfeller hvor UiB skal sende personopplysninger til en tredjepart må det foreligge en databehandleravtale.
Språkmodeller har et begrenset virkeområde
Ved første øyekast kan det virke som om ChatGPT og lignende språkmodeller fungerer svært likt som mennesker når det gjelder det å tenke og resonnere. Det er likevel flere ting som ChatGPT simpelthen ikke kan gjøre fordi den er en språkmodell. Den kan for eksempel ikke huske fakta, og vil ofte fremføre, «hallusinere» faktafeil på en svært overbevisende måte. ChatGPT kan heller ikke gjøre beregninger, avveie, resonnere eller tenke logisk.
Hva betyr dette for deg som underviser og ansatt?
Digitalisering, teknologi og kunstig intelligens endrer fagene våre og arbeidslivet på tvers av bransjer. I fremtiden vil kombinasjonen av spesialisert fagkunnskap og digital forståelse være avgjørende i både arbeids- og samfunnsliv.
Det ble gjennomført en undersøkelse om bruken og syn på Chatbots og andre verktøy basert på kunstig intelligens blant studenter i Sverige. Majoriteten av studentene er positiv til slike verktøy og mener at de gjør læringsprosessen mer effektiv. Samtidig utrykker mer enn halvparten en bekymring rundt virkningen av chatbots for fremtidig utdanning, men er mindre bekymret for andre KI-baserte språkverktøy. Mer enn 60 prosent av studentene mener at bruk av chatbots under eksamen er fusk, men majoriteten av studenter er i mot et forbud mot KI-baserte verktøy i utdanningene. Les mer i oppsummeringen av undersøkelsen.
Fremveksten av nye og tilgjengelige verktøy har ulike implikasjoner for ulike fag og disipliner. Det er derfor viktig at fagmiljøene selv vurderer bruken av slike verktøy i sine emner og studieprogram. Felles for alle fagmiljø gjelder at juridiske rammer, regelverk for plagiat og fusk, og for kildeføring må respekteres.
Betydningen av verktøy for kunstig intelligens for læring og undervisning
Generative modeller har et vidt spekter av måter de kan benyttes på i en undervisnings- og læringssituasjon. Fagmiljøene må selv vurdere hvordan og i hvilken grad verktøyet kan benyttes i egne emner og studieprogram, og tydeliggjøre premissene for bruk overfor studentene i emnebeskrivelser og aktuelle kommunikasjonskanaler. Uavhengig av om generative modeller er tillatt i vurderingssituasjonen, er det ulike måter studenter kan benytte slike modeller for å tilegne seg kunnskap, ferdigheter og generell kompetanse. Studenter kan eksempelvis benytte slike verktøy til å få laget en oppsummering av sine forelesningsnotater som sammenhengende tekst, utarbeiding av "puggekort" (flash cards), og som en sparringspartner som kan forklare ulike deler av pensum.
Andre eksempler kan være at for eksempel ChatGPT eller lignende, kan hjelpe en student gjennom å stille spørsmål fra et kjent pensum eller å utbedre tekster.
Studentene vil i eksempelet over ha benyttet seg av generative modeller for å tilegne seg kunnskap under egenstudier, som så kan brukes i en vurderingssituasjon. Dette kan sammenlignes med å samarbeide med andre studenter, noe som generelt oppfordres til som en del av egenstudiet, men som vanligvis ikke er lov i vurderingssituasjoner. I tillegg vil studentene tilegne seg ferdigheter når det gjelder bruken av denne type verktøy.
I hvilken grad studenter velger å bruke slike verktøy i egenstudier avhenger i stor grad av studentenes ferdigheter og interesse for disse. For å legge til rette for at studentene tilegner seg slike ferdigheter, kan undervisningsopplegget aktivt inkludere verktøy basert på kunstig intelligens.
Gjennom en utforskende tilnærming til slike verktøy kan man få innsikt i positive effekter på læring og konstruktiv bruk av teknologi, samt kritisk refleksjon og tenkning rundt bruken av slike verktøy.
I flere emner på UiB har ChatGPT blitt brukt som en del av undervisningen. Våren 2023 har de i INF100 brukt tid på å presentere hva ChatGPT er, nemlig en språkmodell, og at en skal være forsiktig med å kalle det kunstig intelligens. Foreleser viste studentene gode og dårlige svar på spørsmål stilt til ChatGPT, og studentene fikk lov til å bruke ChatGPT i sine besvarelser så lenge de siterte bruken og var sikre på at de kunne faget godt nok til å vurdere verktøyets nøyaktighet.
I INF250 ble studentene som tok emnet våren 2023 bedt om å generere kode ved å bruke ChatGPT for å visualisere et datasett. Studentene ble bedt om å levere koden som ChatGPT produserte, samt en refleksjon over opplevelsen av å bruke ChatGPT, som hvor lett/vanskelig det var å få ønsket resultat, om koden var korrekt, hvordan visualiseringen så ut m.m.
Våren 2023 jobbet studentene i DIKULT304 med AI. Her ble studentene gjort oppmerksomme på at ChatGPT og andre KI-modeller er verktøy med begrensninger. De diskuterte for eksempel kildekritikk og referering i kunstig intelligens, og KI- modellens tendens til å finne opp ting som ikke har blitt sagt eller gjort. I flere emner på Digital Kultur bruker de Spannagel’s «Rules for Tools» som en veileder for bruk av ChatGPT og andre KI-modeller i deres emner.
I emnet MUTP104 har studentene våren 2023 jobbet med hvilke spørsmål en kan stille slike verktøy med et sterkt fokus på kildekritikk. Stemmer det med studentenes egen oppfatning, og er det andre kilder som kan underbygge dette?
Ved flere emner ved Det medisinske fakultet er det tatt i bruk KI-Chatboter til å lage forslag til kollokvieoppgaver, eksamensoppgaver eller quizer i undervisningen. Et konkret eksempel fra Det medisinske fakultet er MED6, hvor foreleser har på generell basis tatt for seg hvordan kunstig intelligens kan benyttes innen medisinen, både hvilke fordeler det har, og hvilke utfordringer det kan by på.
Betydningen av verktøy for kunstig intelligens i vurdering
Det store spennet i bruken av generative modeller blir tydeligst i vurderingssituasjoner. I ytterkantene finner man på den ene siden "ingen bruk" av generative modeller, og på den andre siden "omfattende bruk", hvor den generative modellen har produsert hele innholdet. Avhengig av hvilken linje man legger seg på i eget fag, vil det kunne oppstå gråsoner for hva som er akseptabel bruk. Bruken må uansett respektere gjeldende regelverk for plagiat og fusk, samt kildeføring.
Dersom man legger seg på en linje hvor generative modeller i noen grad benyttes som en del av vurderingen, kan det potensielt dukke opp noen gråsoner. Hva skjer dersom en student har skrevet en tekst uten bruk av generative modeller, men bruker et verktøy for å kutte ned på antall ord for å komme innenfor ordgrensen? I hvilken grad er teksten fremdeles studentens eget selvstendige arbeid? Dersom modellen kun fjerner og ikke legger til, vil studenten ha brukt generative modeller, men kan man si at studenten har produsert innholdet selv?
Et annet eksempel kan være å bruke generative modeller til å rette opp i språklige og grammatiske feil. I en vurderingssituasjon hvor det er språk og grammatikk som blir vurdert vil man sannsynligvis ikke tillate dette, men i tilfeller hvor det er andre aspekter ved studentenes læringsutbytte som blir vurdert, kan det være rom for å tillate bruken av generative modeller til dette.
En tredje måte studenten kan benytte seg av generative modeller på, er å be modellen om å kritisere eller gi tilbakemeldinger på innleveringer. Dersom man som underviser har publisert vurderingskriterier for en oppgave, kan studentene bruke vurderingskriteriene sammen med det de selv har skrevet, og mate dette inn i en modell. Studentene kan da f.eks. be modellen ta utgangspunkt i vurderingskriteriene, emnebeskrivelsen, og annen relevant informasjon og gi tilbakemelding på form og innhold.
Avhengig av hvordan man legger opp undervisningen og vurderingen i et emne, vil det være svært ulike problemstillinger man bør ta stilling til. Dersom generative modeller tillates i et emne, skal studentene måtte legge ved samtalene de har hatt med modellene? Når er det eventuelt dette skal bli gjort? Og, blir samtaleloggen også en del av vurderingsgrunnlaget?
Dersom man velger å gå for en vurdering hvor studentene ikke skal kunne bruke generative modeller, må man tenke gjennom hvilken vurderingsform man skal benytte seg av, og hvordan man skal avdekke eventuelt juks. Siden de generative modellene krever internettilgang, kan man sikre seg mot bruken av disse ved å benytte seg av saleksamen uten tilgang til internett. Selv om det å bruke saleksamen kan være et godt virkemiddel for å hindre bruk av generative modeller, er det ikke nødvendigvis ønskelig dersom man har ambisjoner om f.eks. å bruke formative vurderingsformer.
Ved andre vurderingsformer enn saleksamen må man derfor tenke gjennom hvilke oppgaver man gir studentene, slik at disse ikke enkelt kan besvares av en generativ modell. Universitet i Oslo har løftet frem viktige implikasjoner denne teknologien har for høyere utdanning og laget forslag til gode vurderingspraksiser på kort og lengre sikt som ikke kan besvares av generativ AI som Chat GPT.
På kortere sikt foreslås det å vektlegge kritisk refleksjon som får frem studentenes synspunkter, synliggjør tankeprosesser underveis i arbeidet, og som vektlegger å skape noe nytt. Gjennom å knytte oppgaver spesifikt til pensum eller dagsaktuelle problemstillinger blir det vanskeligere å benytte Chat GPT for å besvare oppgavene. Vurderingsformer knyttet til ulike formater som for eksempel video, presentasjoner og muntlige vurderinger, prosjektarbeid, mappevurderinger eller vurderingsformer der studentene får tilbakemeldinger underveis og forbedrer sitt arbeid kan også begrense mulighetene for å benytte Chat GPT. På lengre sikt foreslås det å endre fokuset fra kontroll av læring til prosessen med å lære og å utforske hvordan verktøy basert på kunstig intelligens kan inngå for å støtte læringen. Du kan lese mer om dette på UiO sine nettsider.
Hvilke verktøy basert på kunstig intelligens kan jeg bruke?
Microsoft Copilot for web
Som en del av Microsoft-pakken til UiB, har alle ansatte og studenter tilgang til Microsoft Copilot for web. Copilot for web bruker de samme språkmodellene som andre ChatGPT-tjenester, men er i tillegg koblet til internettsøk. Det som blir skrevet til samtaleroboten blir ikke lagret, og dermed anses tjenesten som sikker og pålitelig når det gjelder databeskyttelse og personvern. Data under behandling er kryptert slik at selv Microsoft ikke har tilgang, og vil heller ikke bli brukt til videre trening av verktøyet. Løsningen er imidlertid ikke godkjent for fortrolig eller strengt fortrolig informasjon.
Du kan lese mer om Microsoft Copilot for web (tidl. Bing chat enterprise) i nyhetssaken Trygg ChatGPT-tjeneste for alle.
Hvordan tar jeg i bruk Copilot for web?
- Naviger til copilot.microsoft.com
- Kontroller at du er logget på med UiB-kontoen din ved å se etter det grønne merket som vist på bildet under, øverst til høyre på skjermen. Hvis det grønne merket mangler, må du logge på med UiB-kontoen din for at dataene dine skal være beskyttet av UiB sin databehandleravtale.
- Prøv deg frem med ulike «prompts» og se hva du får som svar.
For å holde data som sendes inn private lagres ikke samtalen.
Du mister Samtalen hvis du:
- Velger «nytt emne»-knappen
- Lukker nettleservinduet
- Lar samtalen være åpen i timesvis.
Copilot vil også glemme eventuelle filer eller nettsider du åpner i nettleseren. Det er derfor viktig at du lagrer samtaleinnholdet ditt etter behov.
Om du vil lære mer om hvordan å lage gode prompts/ledetekster kan du ta Digital Norway sitt gratis kurs i grunnleggende prompt design.
UiBchat
Den andre samtaleroboten som kan brukes på UiB som en trygg erstatning for andre samtaleroboter er UiBchat. Også denne samtaleroboten sikrer at informasjonen man legger inn i tjenesten ikke blir lagret noe sted og heller ikke blir brukt til å trene KI-modellen videre.
For å ta den i bruk, gå til UiBchat og logg inn med UiB-brukerkontoen din.
Hva skiller UiBchat fra ChatGPT?
- Data blir ikke lagret andre steder enn på egen datamaskin når du bruker UiBChat
- Samtale-logger blir lagret i nettleseren du bruker, og er ikke tilgjengelig fra andre enheter
- Ved bruk av UiBchat er du trygg på at det du skriver til samtaleroboten ikke blir delt eller brukt for å trene modellen videre
- Data du legger inn i samtalen blir behandlet i Microsoft sitt datasenter i Stockholm, men blir ikke lagret hos Microsoft etter at svaret fra GPT er levert. Dette er i tråd med inngått databehandleravtale.
Vær oppmerksom på at utfordringene knyttet til hvor mye du kan stole på verktøyet og alle spørsmål om faglige retningslinjer osv. gjelder uansett hvilket verktøy du bruker, også dem fra UiB. UiBChat er kun til bruk for grønne og gule data.
UiBchat er i pilot
Tjenesten er foreløpig i pilot, og vil i første omgang være det til 1. juli 2024. Etter 1. juli 2024 er UiBchat er fremdeles tilgjengelig og denne siden vil oppdateres når en endelig avgjørelse angående piloteringen er tatt. Vær oppmerksom på at UiBchat kan være ustabil, og feil vil kunne oppstå.
- Informasjon om hvordan du bruker UiBchat: Brukerdokumentasjon
- Kontakt ved spørsmål eller behov for brukerstøtte: UiBhjelp
Juridiske rammer
Verktøy for kunstig intelligens og GDPR
En av utfordringene med bruken av kunstig intelligens verktøy som ChatGPT og personvernregelverket (GDPR), er at dataene som brukes til å trene verktøyene kan inneholde personopplysninger. Disse personopplysningene er hentet inn i verktøyet fra ulike kilder, både fra internett og fra brukerne. Det er usikkert om disse personopplysningene er hentet inn på lovlig vis, og datatilsyn fra flere land har vært skeptiske til slike tjenester av denne grunn.
Brukere må vite at løsninger som bygger på kunstig intelligens bruker det som skrives inn eller lastes opp til å forbedre tjenesten. Det vil si at personopplysninger som legges inn blir lagret og brukt videre. Vær klar over at forespørsler som sendes inn i tjenesten kan inneholde sensitiv personinformasjon.
Ifølge Datatilsynet må virksomheter spesielt passe på
at virksomhetens eget oppsett og konfigurasjon av tjenester krever teknisk kompetanse for å unngå at det skapes sårbarheter (i likhet med skytjenester mer generelt)
at implementasjon og integrasjon av kunstig intelligens verktøy krever tiltak for egen informasjonssikkerhet og egen personopplysningssikkerhet (i tillegg til tjenestens egne tiltak)
å være bevisst på at forespørsler som sendes inn og responderer på disse kan kunne lagres i tjenestetilbyders egen historikk eller benyttes av tjenestetilbyder for "videreutviklingsformål".
Les mer på datatilsynets hjemmesider: Datatilsynet følger med på utviklingen av ChatGPT
Som underviser må man være oppmerksom på at man ikke kan pålegge studenter å bruke tjenester som UiB ikke har en databehandleravtale med. Dette gjelder per nå f.eks. ChatGPT og andre AI-tjenester. Dersom du er usikker på om tjenesten du ønsker å bruke har en databehandleravtale med UiB kan du sende inn en sak på UiB hjelp.
Akademisk redelighet er en overordnet norm som styrer hva som er forventet av blant andre UiB sine studenter. Vi forventer at studentene stoler på egne ferdigheter, gjør selvstendige vurderinger og tar standpunkt. Generative språkmodeller som ChatGPT og andre generative verktøy reiser spørsmål knyttet til både kildebruk og krav om selvstendighet. Som hovedregel er det et krav om at svaret på eksamen er en selvstendig produsert tekst. Dette gjør at å levere en tekst som helt eller delvis er generert vil bli regnet som fusk, med mindre det er sitert på redelig måte. For mer informasjon, se nettsiden Reielegheit og fusk | Studieavdelingen | UiB
Kildeføring av generative modeller
Generelt skal det refereres til programvare brukt i akademisk arbeid når programvaren har innvirkning på resultater, analyser eller funn som presenteres. KI -verktøy skal regnes som programvare og ikke som medforfatter da enhver tilskrivning av forfatterskap medfører ansvar for arbeidet, og KI-verktøy kan ikke ta på seg et slikt ansvar.
En KI-generert tekst er ikke mulig for andre å gjenskape. I akademiske arbeider bør det derfor fremgå hvordan generatoren er brukt. For eksempel tidspunkt og omfang, og hvordan resultatet ble inkludert i teksten. Ofte er det aktuelt å gjengi det som er skrevet inn i chatten. Ved et langt svar fra tekstgeneratoren kan dette legges som vedlegg. Vær oppmerksom på at det kan finnes fagspesifikke føringer for hvordan bruken skal dokumenteres da KI-verktøy kan ha ulik bruk i ulike fag.
Eksempelet under viser hvordan man refererer til KI-generert tekst i referansestilen APA7:
- I teksten: tekst (OpenAI, 2023)
- I referanselisten: OpenAI. (2023). ChatGPT (20. april-versjon) [Stor språkmodell]. https://chat.openai.com/.
DIGI-emner ved UiB
Mange studenter ved UiB har benyttet seg av tilbudet om å bygge digital forståelse, kunnskap og kompetanse gjennom DIGI emnepakken. Ansatte kan også ta emnene.
DIGI101 - Digital kildekritikk har blitt oppdatert med en ny modul om «Vitenskap i kunstig intelligens», som tar for seg bruken av samtaleroboter. Modulen gir en oversikt over hva som kjennetegner informasjon generert av KI-verktøy og hvordan man kan forholde seg til denne informasjonen.
Informasjon fra fakultetene
Flere fakulteter ved UiB har utviklet egne veiledere for bruk av språkmodeller og annen kunstig intelligens. Universitetet i Bergen åpner for at forskjellige fagmiljø vurderer bruken av slike verktøy forskjellig, og studentene må orientere seg om føringene i det aktuelle studiet.
- Det samfunnsvitenskapelig fakultet: Veiledning ved bruk av samtaleroboter
- Det psykologiske fakultet: Informasjon om bruk av kunstig intelligens
- Det medisinske fakultet: Bruk av kunstig intellligens (KI) ved Det medisinske fakultet