Det er vanskelig å få kunstig intelligens til å oppføre seg!
UiB AI-seminar nr 12 samlet forskere, studenter og andre interesserte til å høre om utfordringene knyttet til å tilpasse kunstig intelligens-systemer til menneskelige verdier og mål. Her er det ingen kjappe, enkle løsninger.
Hovedinnhold
Seminaret var et samarbeid mellom Universitetsfondet og UiB AI, og det var Samia Touileb, førsteamanuensis ved Infomedia, som hadde det faglige ansvaret.
Du kan se opptaket fra UiB AI #12: Aligning AI with Human Values, her.
Jan Broersen, professor i filosofi og religionsvitenskap fra Utrecht University i Nederland, snakket om "frakoblingen" mellom den kunnskapen som legges inn i store språkmodeller (som ChatGPT) på den ene siden, og det som kommer ut når du gir instrukser ("prompts") på den andre siden. Et eksempel er det at ChatGPT kan reglene for sjakk til minste detalj, men hvis du prøver å spille med den, så gjør den ulovlige trekk - og er ikke "klar over det selv". Slik frakobling gjør det vanskelig - eller kanskje umulig - å framstille språkmodeller som produserer tekster ut fra et etisk grunnlag, hvordan vi enn velger å definere et slikt grunnlag.
Jan Broersen fra Utrecht University.
Emily C. Collins fra University of Manchester reiste spørsmålet om hvem som skal være ansvarlig for konsekvensene av bruk av kunstig intelligens-teknologi. Hun viste også eksempler fra arbeidslivet på hvordan oppfatning av og tillit til KI avhenger mye av hvem som ber deg om å, eller krever at du, tar teknologien i bruk. Og av hva formålet er: Å bruke teknologi til å gi deg en bedre og mindre rutinepreget arbeidshverdag, eller å gi "money money cash cash"?
Emily C. Collins fra University of Manchester.
Marija Slavkovik fra Universitetet i Bergen adresserte hvorfor det er så vanskelig å få kunstig intelligens til å oppføre seg. Hun viste blant annet et eksempel på hvordan ChatGPT nekter å svare på hvordan man skal slakte en kylling, men gjerne gir oppskrifter på hvordan man kan tilberede en (allerede død) kylling til middag. Eksemplet illustrerer hvordan man har prøvd, ved hjelp av moralske filtre, å redusere den potensielle uetiske teksten som slike språkmodeller kan produsere. Men for oss, som brukere, er det uklart hvor denne "moralen" kommer fra. Poenget med maskinetikk, ifølge Slavkovik, er at vi må forstå hvordan teknologien fungerer, og at moralen bør være del av selve vårt teknologidesign.
Marija Slavkovik fra Universitetet i Bergen.
Neste seminar i UiB AI-serien går av stabelen 24. januar 2025, og handler om kvanteteknologi. Du finner informasjon om og mulighet til å melde deg på UiB AI #13 her.
Og her finner du informasjon om alle de tidligere UiB AI-seminarene.