Hjem
Det samfunnsvitenskapelige fakultet
Forskerprat

– En formell, metodisk tilnærming til kunstig intelligens passer meg godt

Rustam Galimullin er en av flere eksperter på kunstig intelligens ved UiB. Les mer om ham og hans forskning her.

Mann med briller og mørkt hår
De matematiske modellene Rustam Galimullin lager, brukes til å fastslå om roboter kan løse kommunikasjonsutfordringene de vil møte.
Foto/ill.:
Melanie Burford

Hovedinnhold

– Jeg har alltid vært fascinert av det ukjente med kunstig bevissthet og grensegangene her. En formell, metodisk tilnærming til kunstig intelligens (KI) passer meg godt, sier Rustam Galimullin. 

Han er postdoktor ved Institutt for informasjons- og medievitenskap (UiB).

Forskningen hans er abstrakt, men får likevel konsekvenser for praksis innen kunstig intelligens: Galimullin lager matematiske modeller for å vurdere om fremtidens roboter kan kommunisere mer effektivt enn dagens.

Trenger å lære sosial intelligens

Hvorfor bruke tid og forskningsmidler på noe slikt, vil noen kanskje spørre. Det er det minst to gode grunner til, mener Galimullin.

Grunn nummer én:

Dagens roboter er veldig gode til å løse veldefinerte oppgaver med entydige mål der de opererer i avgrensede fysiske miljøer. De har dessuten lett for det vi mennesker sliter med. Allerede i 1997 slo en sjakkdatamaskin verdensmesteren i sjakk. Det robotene foreløpig er mindre gode til å håndtere, er situasjoner som krever evne til å tolke sosial kontekst og til å se verden fra andres ståsted.

– Det betyr at før vi kan ta i bruk roboter i mer åpne sammenhenger på en trygg måte, må vi lære dem i alle fall et snev av sosial intelligens. Et viktig aspekt ved sosial intelligens er evnen til å kommunisere med andre og til å handle på grunnlag av ny informasjon. Derfor er det viktig å finne ut hvordan vi kan programmere robotene til å bli bedre kommunikatorer, sier Galimullin.

Matematiske modeller kommer godt med

Grunn nummer to:

Å gjøre robotene sosialt mer intelligente er bare en del av jobben. Forskerne må også teste robotenes funksjonalitet og sikkerhet.

– Før vi slipper dem løs på verden, må vi også forsikre oss om at de virker slik vi har tenkt. Vi må vite at de er kapable til å gjøre de jobbene vi skal sette dem til, og vi må ikke minst vite at det er trygt å la dem ferdes blant mennesker. Denne valideringen kan vi gjøre ved hjelp av matematiske modeller, forklarer Galimullin.

Postdoktoren forteller at det finnes mange eksempler på at robotene foreløpig ikke er særlig «gatesmarte»:

– Vi har for eksempel en historie fra et dansk sykehus der avanserte og kostbare roboter som skulle løpe ærend over store deler av sykehusområdet, måtte parkeres. De klarte ikke å forholde seg til menneskers uforutsigbarhet, og skapte potensielt farlige situasjoner.

En fri rolle

Galimullin, som opprinnelig er fra Russland, spesialiserer seg i symbolsk KI og blokkjedeteknologi. Så hvordan er det egentlig å være postdoktor ved UiB?

– Det er både spennende og utfordrende. Jeg nyter friheten ved å kunne dyrke forskningsinteressen min, uten at det henger en stor avhandlings-frist over meg, sier Galimullin og fortsetter:

– Som postdoktor har jeg virkelig fått utvidet det faglige nettverket mitt, og jeg har fått prøvd ut nye forskningsretninger. Og så lærer jeg mye om akademia generelt av å være her.

Kommunikasjonsevner er helt sentralt 

De matematiske modellene Galimullin lager, brukes til å fastslå om roboter – eller mer presist dataprogrammene deres – kan løse de kommunikasjonsutfordringene de vil møte.

Han understreker at vi i stor grad snakker om programmer som kan brukes i tenkte roboter som foreløpig ikke er konstruert.

– Vi klarer allerede å lage gode modeller som kan finne ut om roboter er i stand til å kommunisere effektivt seg imellom for å løse en gitt oppgave. Men vi ser tydelig at kommunikasjonen blir mye vanskeligere for robotene straks vi snakker om sosiale settinger som også involverer mennesker, sier Galimullin.

Han trekker frem som eksempel en robot som har observert at en farlig situasjon er i ferd med å oppstå. Et menneske roboten samhandler med, har derimot ikke fått med seg faren som truer.

– Å få roboten til å forstå at mennesker ikke nødvendigvis har samme tilgang på informasjon som den selv har, kan være veldig tricky. Det er mange lag av situasjonsforståelse her, og det er svært utfordrende å få roboten til å forstå at mennesket ikke har sett det samme som den, og derfor må varsles om faren, sier Galimullin.

Les mer om kunstig intelligens-miljøet ved Institutt for informasjons- og medievitenskap her