Hjem
Institutt for informasjons- og medievitenskap
Kunstig intelligens

Falskt innhold kan produseres med kun noen få klikk. Klarer du å avsløre det?

Med dagens teknologi har produksjonen av falskt innhold, inkludert «deepfakes», blitt enklere, samtidig som det er vanskeligere å oppdage. - Snart vil det være nesten umulig å skille ekte fra manipulasjon med det blotte øyet, advarer Duc Tien Dang Nguyen.

Illustrasjonsbilde deepfake
Foto/ill.:
Malgorzata Anna Pacholczyk

Hovedinnhold

For noen uker siden fikk Danmarks statsminister Mette Frederiksen og Finlands president Alexander Stubb mye oppmerksomhet, da «deepfake»-videoer av dem begge begynte å sirkulere på internett.

En deepfake er et manipulert bilde, lyd eller video generert ved hjelp av dype kunstige nevrale nettverk, ofte bare omtalt som "kunstig intelligens".

Teknologien har gjort det betydelig enklere og billigere å lage disse. Samtidig har kvaliteten på det manipulerte innholdet blitt stadig bedre, noe som gjør det vanskeligere å oppdage dem.

Duc Tien Dang Nguyen, førsteamanuensis ved Infomedia og forsker innen digital etterforskning sier følgende:

- Utfordringen med «deepfakes» blir stadig større, og snart vil det være nesten umulig å skille ekte fra falskt med det blotte øyet.

Supervalgåret 2024

I 2024 deltar et historisk stort antall velgere ved stemmeurnene globalt, med 64 land og EU, som til sammen utgjør cirka 49 % av verdens befolkning.

Flere påpeker at utfallet av årets valg ikke bare vil påvirke det politiske landskapet og beslutningene, men også gi et innblikk i tilstanden til demokratiet. Derfor vokser bekymringen knyttet til spredningen av feilinformasjon, inkludert «deepfakes», som har potensial til å påvirke velgernes oppfatninger og tillit til en politisk kandidat.

Selv om det er usikkert hvor mange politiske forfalskninger som er blitt produsert med kunstig intelligens, melder eksperter om en økning i valgrelaterte «deepfakes» globalt. Samtidig bemerker de at det er spesielt enkelt å lage deepfakes av politikere eller andre kjente personer på grunn av det store antallet tilgjengelige bilder og videoer. Dang Nguyen forklarer:  

- Jo mer kjent en person er, desto enklere kan det være å lage en overbevisende deepfake av vedkommende. Dette skyldes at det ofte er rikelig med tilgjengelig materiale, som videoer og bilder, som kan brukes som grunnlag for å skape en realistisk forfalskning.

Hvordan da kan en vanlig person enkelt oppdage om det de ser på har blitt manipulert?

Infomedia forskeren understreker viktigheten av følgende:

  • Mange KI-genererte bilder har fortsatt problemer med lys, skygger og refleksjoner. Ved å se nøye etter disse elementene kan vi oppdage tegn på manipulasjon.
  • Vær oppmerksom på detaljer som ører og pupiller i ansikter laget av KI, samt hender og føtter
  • Ta deg god tid og undersøk grundig bildets kilde, metadata, sted og tidspunkt, samt motivasjonen til personen som lastet det opp
  • Det er viktig å ikke vurdere bildet isolert, men også å plassere det i en større sammenheng eller kontekst

Man kan også dra nytte av ulike verifiseringsressurser, for eksempel InVid-pluginen eller OSINT-verktøy. Autentisk innhold kan også bekreftes med hjelp av Origin Verify, et nylig utviklet verktøy fra Origin-prosjektet der Media City Bergen og forskere ved Infomedia også er involvert.

Kamp mot misinformasjon

Over hele verden har politikere jobbet med lovgivning rettet mot spredning av desinformasjon. Forskere, inkludert fagmiljøet ved Universitet i Bergen, bidrar også i innsatsen mot falskt innhold.

Ved Infomedia er MediaFutures Forskingssenter opptatt av utvikling av ansvarlig medieteknologi. I samarbeid med industripartnere jobber vi med å finne løsninger mot bl.a. fabrikkerte nyheter. NORDIS-konsortiet er et annet prosjekt der våre forskere er involvert. I den andre fasen av prosjektet, søker konsortiet å skape teorier, praksiser og modeller for å motvirke digitale informasjonsforstyrrelser. Spesielt rettes oppmerksomheten mot dekning av klimaendringer og Europaparlamentvalget 2024.