Verktøy basert på kunstig intelligens i utdanning - for ansatte
Denne nettsiden gir en oversikt over de vanligste verktøyene basert på generativ kunstig intelligens, og rammen rundt bruken av disse verktøyene for ansatte ved UiB.

Hovedinnhold
Bruken av tekst- og samtaleverktøy som ChatGPT og lignende tjenester har fått allmenn utbredelse siden lanseringen av ChatGPT seint i 2022. Verktøy basert på generativ kunstig intelligens (KI) bringer med seg mange muligheter, men gir også noen utfordringer.
Hva mener vi med KI-baserte verktøy?
- Generativ kunstig intelligens: Dette er en fellesbetegnelse for verktøy som kan frembringe tekst, bilder, lyd, videoer osv. Generativ KI kan også skape nyttige strukturer som proteiner, enzymer, bygningskonstruksjoner og løsningsforslag og på den måten bidra til vitenskapelige fremskritt. På denne siden omtaler vi kun tekst - og samtaleverktøy.
ChatGPT er et eksempel på et verktøy som lager tekst basert på input fra brukeren, og verktøy som Microsoft Copilot og Google Gemini fungerer på lignende måte.
- Trening av modellen: For å lage innhold må KI-verktøyet trenes opp ved å lære fra data. Modellen som verktøyet er basert på, finner mønstre i dataene som gjør at den kan gi gode oversikter og oppsummeringer, og ofte kan lage innhold som fremstår som nytt.
- Pålitelighet: Det er viktig å være klar over at disse verktøyene ikke er pålitelige kilder til informasjon. De frembringer svar basert på sannsynligheter, og fungerer ikke som en vanlig søkemotor. De kan feilkoble informasjon som ikke i utgangspunktet er relaterte, noe som resulterer i såkalte "hallusinasjoner".
- Hvilket potensial har KI-verktøy : Metoder og verktøy basert på kunstig intelligens bringer med seg muligheter for store vitenskapelige fremskritt, spesielt innen naturvitenskap, teknologi og medisin. Eksempler på slike blir stadig vist frem og diskutert på seminarserien til UiB AI, som er åpne for alle studenter. Tekst - og samtaleverktøy ble først diskutert på UiB AI's seminar om ChatGPTs rolle i forskning og utdanning.
Fallgruver ved bruk av tekst- og samtaleverktøy basert på KI
Du vet aldri hvilke data modellen er trent på
Enhver generativ KI-modell som et tekst - og samtaleverktøy er basert på, må bli trent på et sett med data. Hvilke data som blir brukt under opplæringen vil i svært stor grad kunne påvirke hvilke resultater vi får ut, og dette er noe vi må være bevisste på når vi mottar en respons fra den generative modellen.
På samme måte som at meningene og holdningene våre kan bli formet av informasjonen vi har, vil generative modeller produsere innhold i tråd med dataene de er trent på. Som bruker av disse tjenestene kan du aldri være sikker på hvilke data som er blitt brukt i opplæringen, med mindre tjenestene har gjort dette tilgjengelig på en måte som kan gjennomgås.
Selv om KI kan gi oss nyttige verktøy, er kunnskap og ekspertise i det aktuelle fagområdet helt nødvendig for å kunne vurdere påliteligheten til innholdet disse verktøyene produserer.
For mer informasjon om hvordan data kan, og har påvirket kunstig intelligens til å gjøre feilslutninger, se f.eks. Rise of AI Puts Spotlight on Bias in Algorithms - WSJ
Modellen er et resultat av dataene den er trent på
Selv om vi vet hvilke data en modell er trent på, er det ikke nødvendigvis slik at den produserer fornuftige resultater. Forenklet sagt kan vi si at en modell som benytter data av høy kvalitet, som oftest vil produsere innhold av høy kvalitet. Tilsvarende vil en modell som er trent på data av lav kvalitet, som oftest produsere innhold av lav kvalitet.
Som brukere av disse tjenestene kjenner vi ikke til kvaliteten på dataene eller hvordan disse er prosessert. Dersom vi stoler blindt på resultatet av en generativ modell, risikerer vi å ta i bruk upålitelige svar. Spør du ChatGPT hvem som var rektor ved UiB i 1955, får du som svar at dette var Asbjørn Øverås, og ikke Erik Waaler som er riktig. Dette er et eksempel på faktafeil, noe du kan lese mer om i professor Jill Walker Rettberg sin kronikk i NRK.
Du har ikke kontroll på data du sender inn
Ved å ta i bruk generative modeller på internett sender du informasjon til servere du ikke nødvendigvis vet hvor befinner seg. EU har et svært strengt regelverk som regulerer hva bedrifter kan og ikke kan gjøre med opplysningene dine, men for nettbaserte tjenester er det er ingen garanti for at de opererer i EU/EØS i henhold til dette regelverket.
Med mindre bedriften som leverer modellen du bruker har forpliktet seg til å håndtere dataene dine på en lovlig og etisk måte, risikerer du at dataene blir brukt for å trene opp andre modeller, eller av ulike grunner kommer på avveie. Det er derfor svært viktig at vi er bevisste på hvilke data vi sender, i likhet med de fleste andre tjenester på internett.
Eksempelvis er studentarbeid som eksamensbesvarelser ikke lov å sende til generative modeller, ettersom eksamensbesvarelser er å regne som personopplysninger. I alle tilfeller hvor UiB skal sende personopplysninger til en tredjepart, må det foreligge en databehandleravtale.
Språkmodeller har et begrenset virkeområde
Digitalisering, teknologi og kunstig intelligens er i ferd med å endre fagene våre og arbeidslivet på tvers av bransjer. Kunstig intelligens, også i andre former enn generative modeller, blir tatt i bruk i mange sammenhenger. I fremtiden vil kombinasjonen av spesialisert fagkunnskap og digital forståelse inkludert kjennskap til kunstig intelligens, være avgjørende i både arbeid – og samfunnsliv.
Fremveksten av nye og tilgjengelige verktøy har ulike implikasjoner for ulike fag- og disipliner, og ulike fakultet og institutt kan dermed ha ulike tilnærminger til bruken. Uavhengig av dette er det juridiske rammer, regelverk for plagiat og fusk, og for kildeføring som må respekteres.
Hva betyr dette for deg som underviser og ansatt?
Digitalisering, teknologi og kunstig intelligens endrer fagene våre og arbeidslivet på tvers av bransjer. I fremtiden vil kombinasjonen av spesialisert fagkunnskap og digital forståelse være avgjørende i både arbeids- og samfunnsliv.
Det ble gjennomført en undersøkelse om bruken og syn på Chatbots og andre verktøy basert på kunstig intelligens blant studenter i Sverige. Majoriteten av studentene er positiv til slike verktøy og mener at de gjør læringsprosessen mer effektiv. Samtidig utrykker mer enn halvparten en bekymring rundt virkningen av chatbots for fremtidig utdanning, men er mindre bekymret for andre KI-baserte språkverktøy. Mer enn 60 prosent av studentene mener at bruk av chatbots under eksamen er fusk, men majoriteten av studenter er i mot et forbud mot KI-baserte verktøy i utdanningene. Les mer i oppsummeringen av undersøkelsen.
Fremveksten av nye og tilgjengelige verktøy har ulike implikasjoner for ulike fag og disipliner. Det er derfor viktig at fagmiljøene selv vurderer bruken av slike verktøy i sine emner og studieprogram. Felles for alle fagmiljø gjelder at juridiske rammer, regelverk for plagiat og fusk, og for kildeføring må respekteres.
Betydningen av verktøy for kunstig intelligens for læring og undervisning
Generative modeller har et vidt spekter av måter de kan benyttes på i en undervisnings- og læringssituasjon. Fagmiljøene må selv vurdere hvordan og i hvilken grad verktøyet kan benyttes i egne emner og studieprogram, og tydeliggjøre premissene for bruk overfor studentene i emnebeskrivelser og aktuelle kommunikasjonskanaler. Uavhengig av om generative modeller er tillatt i vurderingssituasjonen, er det ulike måter studenter kan benytte slike modeller for å tilegne seg kunnskap, ferdigheter og generell kompetanse. Studenter kan eksempelvis benytte slike verktøy til å få laget en oppsummering av sine forelesningsnotater som sammenhengende tekst, utarbeiding av "puggekort" (flash cards), og som en sparringspartner som kan forklare ulike deler av pensum.
Andre eksempler kan være at for eksempel ChatGPT eller lignende, kan hjelpe en student gjennom å stille spørsmål fra et kjent pensum eller å utbedre tekster.
Studentene vil i eksempelet over ha benyttet seg av generative modeller for å tilegne seg kunnskap under egenstudier, som så kan brukes i en vurderingssituasjon. Dette kan sammenlignes med å samarbeide med andre studenter, noe som generelt oppfordres til som en del av egenstudiet, men som vanligvis ikke er lov i vurderingssituasjoner. I tillegg vil studentene tilegne seg ferdigheter når det gjelder bruken av denne type verktøy.
I hvilken grad studenter velger å bruke slike verktøy i egenstudier avhenger i stor grad av studentenes ferdigheter og interesse for disse. For å legge til rette for at studentene tilegner seg slike ferdigheter, kan undervisningsopplegget aktivt inkludere verktøy basert på kunstig intelligens.
Gjennom en utforskende tilnærming til slike verktøy kan man få innsikt i positive effekter på læring og konstruktiv bruk av teknologi, samt kritisk refleksjon og tenkning rundt bruken av slike verktøy.
I flere emner på UiB har ChatGPT blitt brukt som en del av undervisningen. Våren 2023 har de i INF100 brukt tid på å presentere hva ChatGPT er, nemlig en språkmodell, og at en skal være forsiktig med å kalle det kunstig intelligens. Foreleser viste studentene gode og dårlige svar på spørsmål stilt til ChatGPT, og studentene fikk lov til å bruke ChatGPT i sine besvarelser så lenge de siterte bruken og var sikre på at de kunne faget godt nok til å vurdere verktøyets nøyaktighet.
I INF250 ble studentene som tok emnet våren 2023 bedt om å generere kode ved å bruke ChatGPT for å visualisere et datasett. Studentene ble bedt om å levere koden som ChatGPT produserte, samt en refleksjon over opplevelsen av å bruke ChatGPT, som hvor lett/vanskelig det var å få ønsket resultat, om koden var korrekt, hvordan visualiseringen så ut m.m.
Våren 2023 jobbet studentene i DIKULT304 med AI. Her ble studentene gjort oppmerksomme på at ChatGPT og andre KI-modeller er verktøy med begrensninger. De diskuterte for eksempel kildekritikk og referering i kunstig intelligens, og KI- modellens tendens til å finne opp ting som ikke har blitt sagt eller gjort. I flere emner på Digital Kultur bruker de Spannagel’s «Rules for Tools» som en veileder for bruk av ChatGPT og andre KI-modeller i deres emner.
I emnet MUTP104 har studentene våren 2023 jobbet med hvilke spørsmål en kan stille slike verktøy med et sterkt fokus på kildekritikk. Stemmer det med studentenes egen oppfatning, og er det andre kilder som kan underbygge dette?
Ved flere emner ved Det medisinske fakultet er det tatt i bruk KI-Chatboter til å lage forslag til kollokvieoppgaver, eksamensoppgaver eller quizer i undervisningen. Et konkret eksempel fra Det medisinske fakultet er MED6, hvor foreleser har på generell basis tatt for seg hvordan kunstig intelligens kan benyttes innen medisinen, både hvilke fordeler det har, og hvilke utfordringer det kan by på.
Betydningen av verktøy for kunstig intelligens i vurdering
Det store spennet i bruken av generative modeller blir tydeligst i vurderingssituasjoner. I ytterkantene finner man på den ene siden "ingen bruk" av generative modeller, og på den andre siden "omfattende bruk", hvor den generative modellen har produsert hele innholdet. Avhengig av hvilken linje man legger seg på i eget fag, vil det kunne oppstå gråsoner for hva som er akseptabel bruk. Bruken må uansett respektere gjeldende regelverk for plagiat og fusk, samt kildeføring.
Dersom man legger seg på en linje hvor generative modeller i noen grad benyttes som en del av vurderingen, kan det potensielt dukke opp noen gråsoner. Hva skjer dersom en student har skrevet en tekst uten bruk av generative modeller, men bruker et verktøy for å kutte ned på antall ord for å komme innenfor ordgrensen? I hvilken grad er teksten fremdeles studentens eget selvstendige arbeid? Dersom modellen kun fjerner og ikke legger til, vil studenten ha brukt generative modeller, men kan man si at studenten har produsert innholdet selv?
Et annet eksempel kan være å bruke generative modeller til å rette opp i språklige og grammatiske feil. I en vurderingssituasjon hvor det er språk og grammatikk som blir vurdert vil man sannsynligvis ikke tillate dette, men i tilfeller hvor det er andre aspekter ved studentenes læringsutbytte som blir vurdert, kan det være rom for å tillate bruken av generative modeller til dette.
En tredje måte studenten kan benytte seg av generative modeller på, er å be modellen om å kritisere eller gi tilbakemeldinger på innleveringer. Dersom man som underviser har publisert vurderingskriterier for en oppgave, kan studentene bruke vurderingskriteriene sammen med det de selv har skrevet, og mate dette inn i en modell. Studentene kan da f.eks. be modellen ta utgangspunkt i vurderingskriteriene, emnebeskrivelsen, og annen relevant informasjon og gi tilbakemelding på form og innhold.
Avhengig av hvordan man legger opp undervisningen og vurderingen i et emne, vil det være svært ulike problemstillinger man bør ta stilling til. Dersom generative modeller tillates i et emne, skal studentene måtte legge ved samtalene de har hatt med modellene? Når er det eventuelt dette skal bli gjort? Og, blir samtaleloggen også en del av vurderingsgrunnlaget?
Dersom man velger å gå for en vurdering hvor studentene ikke skal kunne bruke generative modeller, må man tenke gjennom hvilken vurderingsform man skal benytte seg av, og hvordan man skal avdekke eventuelt juks. Siden de generative modellene krever internettilgang, kan man sikre seg mot bruken av disse ved å benytte seg av saleksamen uten tilgang til internett. Selv om det å bruke saleksamen kan være et godt virkemiddel for å hindre bruk av generative modeller, er det ikke nødvendigvis ønskelig dersom man har ambisjoner om f.eks. å bruke formative vurderingsformer.
Ved andre vurderingsformer enn saleksamen må man derfor tenke gjennom hvilke oppgaver man gir studentene, slik at disse ikke enkelt kan besvares av en generativ modell. Universitet i Oslo har løftet frem viktige implikasjoner denne teknologien har for høyere utdanning og laget forslag til gode vurderingspraksiser på kort og lengre sikt som ikke kan besvares av generativ AI som Chat GPT.
På kortere sikt foreslås det å vektlegge kritisk refleksjon som får frem studentenes synspunkter, synliggjør tankeprosesser underveis i arbeidet, og som vektlegger å skape noe nytt. Gjennom å knytte oppgaver spesifikt til pensum eller dagsaktuelle problemstillinger blir det vanskeligere å benytte Chat GPT for å besvare oppgavene. Vurderingsformer knyttet til ulike formater som for eksempel video, presentasjoner og muntlige vurderinger, prosjektarbeid, mappevurderinger eller vurderingsformer der studentene får tilbakemeldinger underveis og forbedrer sitt arbeid kan også begrense mulighetene for å benytte Chat GPT. På lengre sikt foreslås det å endre fokuset fra kontroll av læring til prosessen med å lære og å utforske hvordan verktøy basert på kunstig intelligens kan inngå for å støtte læringen. Du kan lese mer om dette på UiO sine nettsider.
Hvilke KI-verktøy kan jeg bruke?
Microsoft Copilot for web
Som en del av Microsoft-pakken til UiB, har alle ansatte og studenter tilgang til Microsoft Copilot for web. Copilot for web bruker de samme språkmodellene som andre ChatGPT-tjenester, men er i tillegg koblet til internettsøk. Det som blir skrevet til samtaleroboten blir ikke lagret, og dermed anses tjenesten som sikker og pålitelig når det gjelder databeskyttelse og personvern. Data under behandling er kryptert slik at selv Microsoft ikke har tilgang, og vil heller ikke bli brukt til videre trening av verktøyet. Løsningen er imidlertid ikke godkjent for fortrolig eller strengt fortrolig informasjon.
Les mer om Microsoft Copilot for web (tidl. Bing chat enterprise) i nyhetssaken Trygg ChatGPT-tjeneste for alle.
Hvordan tar jeg i bruk Copilot for web?
- Naviger til copilot.microsoft.com
- Kontroller at du er logget på med UiB-kontoen din ved å se etter det grønne merket som vist på bildet under, øverst til høyre på skjermen. Hvis det grønne merket mangler, må du logge på med UiB-kontoen din for at dataene dine skal være beskyttet av UiB sin databehandleravtale.
- Prøv deg frem med ulike «prompts» og se hva du får som svar.

For å holde data som sendes inn private lagres ikke samtalen.
Du mister Samtalen hvis du:
- Velger «nytt emne»-knappen
- Lukker nettleservinduet
- Lar samtalen være åpen i timesvis.
Copilot vil også glemme eventuelle filer eller nettsider du åpner i nettleseren. Det er derfor viktig at du lagrer samtaleinnholdet ditt etter behov.
Om du vil lære mer om hvordan å lage gode prompts/ledetekster kan du ta Digital Norway sitt gratis kurs i grunnleggende prompt design.
UiBchat
Den andre samtaleroboten som kan brukes på UiB som en trygg erstatning for andre samtaleroboter er UiBchat. Også denne samtaleroboten sikrer at informasjonen man legger inn i tjenesten ikke blir lagret noe sted og heller ikke blir brukt til å trene KI-modellen videre.
For å ta den i bruk, gå til UiBchat og logg inn med UiB-brukerkontoen din.
Hva skiller UiBchat fra ChatGPT?
- Data blir ikke lagret andre steder enn på egen datamaskin når du bruker UiBChat
- Samtale-logger blir lagret i nettleseren du bruker, og er ikke tilgjengelig fra andre enheter
- Ved bruk av UiBchat er du trygg på at det du skriver til samtaleroboten ikke blir delt eller brukt for å trene modellen videre
- Data du legger inn i samtalen blir behandlet i Microsoft sitt datasenter i Stockholm, men blir ikke lagret hos Microsoft etter at svaret fra GPT er levert. Dette er i tråd med inngått databehandleravtale.
Vær oppmerksom på at utfordringene knyttet til hvor mye du kan stole på verktøyet og alle spørsmål om faglige retningslinjer osv. gjelder uansett hvilket verktøy du bruker, også dem fra UiB. UiBChat er kun til bruk for grønne og gule data.
For mer informasjon om hvordan du bruker UiBchat, gå til Brukerdokumentasjon
Kontakt ved spørsmål eller behov for brukerstøtte: UiBhjelp
Juridiske rammer
Verktøy for kunstig intelligens og GDPR
En av utfordringene med bruken av kunstig intelligens verktøy som ChatGPT og personvernregelverket (GDPR), er at dataene som blir brukt til å trene verktøyene, inneholder personopplysninger. Personopplysning defineres som informasjon i enhver form som kan knyttes, direkte eller indirekte, til en enkeltperson. Disse personopplysningene er hentet inn i verktøyet fra ulike kilder, både fra internett og fra brukerne, med eller uten deres kjennskap til dette.
Det er svært usikkert om disse personopplysningene er hentet inn på lovlig vis, og datatilsyn fra flere land har vært skeptiske til slike tjenester av denne grunn. Etter GDPR er det svært vanskelig å anse at en slik samling av personopplysninger, noe som kalles for dataskraping, kan være lovlig. Det gjelder særlig sensitive personopplysninger som opplysninger om rase, etnisitet, religion, helse, politiske oppfatninger eller seksuell orientering.
Brukere må vite at løsninger som bygger på kunstig intelligens bruker det som skrives inn eller lastes opp til å forbedre tjenesten, og at de deles med tredjeparter som kommersielle aktører og myndigheter. Det vil si at personopplysninger som legges inn blir lagret og brukt videre. Det er ikke mulig å rette eller slette dem fra modellen. Vær klar over at forespørsler som sendes inn i tjenesten kan inneholde sensitiv personinformasjon og at modellen kan utlede sensitiv informasjon om deg utfra oppgitt informasjon.
Til undervisere
Som underviser må du være oppmerksom på at du ikke kan pålegge studenter å bruke tjenester som UiB ikke har en databehandleravtale med. Dette gjelder per nå f.eks. ChatGPT og andre AI-tjenester. Dersom du er usikker på om tjenesten du ønsker å bruke har en databehandleravtale med UiB, kan du sende inn en sak på UiB hjelp.
Akademisk redelighet er en overordnet norm som styrer hva som er forventet av blant andre UiB sine studenter. Vi forventer at studentene stoler på egne ferdigheter, gjør selvstendige vurderinger og tar standpunkt. Tekst - og samtaleverktøy basert på KI og andre digitale verktøy, reiser spørsmål knyttet til både kildebruk og krav om selvstendighet. Som hovedregel er det et krav om at svaret på eksamen er en selvstendig produsert tekst.
Dette gjør at å levere en tekst som helt eller delvis automatisk frembragt vil regnes som fusk, med mindre det er sitert på redelig måte.
For mer informasjon, se nettsiden Reielegheit og fusk
Kildeføring av generative modeller
Når programvare påvirker resultater, analyser eller funn i akademisk arbeid, skal du referere til den. KI-verktøy blir regnet som programvare og ikke som medforfatter, fordi programvaren ikke kan ta ansvar for arbeidet.
KI-generert tekst kan ikke bli gjenskapt av andre. Derfor bør det i akademiske arbeider bli oppgitt hvordan KI-verktøyet ble brukt, inkludert tidspunkt og omfang, og hvordan resultatet ble inkludert i teksten. Ofte er det nyttig å vise hva som ble skrevet inn i chatten. Lange svar fra KI-verktøyet kan legges som vedlegg. Vær oppmerksom på at det kan være fagspesifikke regler for dokumentasjon av KI-bruk.
Eksempel på referanse i APA7-stil:
- I teksten: tekst (OpenAI, 2023)
- I referanselisten: OpenAI. (2023). ChatGPT (20. april-versjon) [Stor språkmodell]. https://chat.openai.com.
DIGI-emner ved UiB
Mange ansatte og studenter ved UiB har benyttet seg av tilbudet om å bygge digital forståelse, kunnskap og kompetanse gjennom DIGI emnepakken. Dette er mindre 2,5 studiepoengsgivende emner som er tilgjengelige for alle å ta.
Veiledning for KI-verktøy ved fakultetene
Flere fakulteter ved UiB har utviklet egne veiledere for bruk av språkmodeller og annet KI-verktøy. Bruken av slike verktøy varierer stort utfra fagområdet, og UiB legger derfor til grunn at det er fagmiljøene som selv vurderer bruken av slike verktøy på sine fagområder. Studentene må orientere seg om føringene for sine studieprogram og emner.
- Det medisinske fakultet: Bruk av kunstig intellligens (KI) ved Det medisinske fakultet
- Det samfunnsvitenskapelig fakultet: Veiledning ved bruk av samtaleroboter
- Det juridiske fakultet: Retningslinjer for bruk av KI i undervisning og prøving (pdf)
Nyttige kilder
Artikler/video
Varför vi inte längre kan ha skrivna hemuppgifter i högre utbildning (Video)
Akademia
Student use cases for AI (Harvard)
KI-verktøy for ansatte
Les om Microsoft Copilot for web: Trygg ChatGPT-tjeneste for alle.
Synlighet og koordinering av KI-aktivitet på UiB: UiB AI
Åpent diskusjonsforum om KI
Diskutér KI og hold deg oppdatert på KI-relaterte arrangementer og nyheter: Delta på Teams