Forskere psykoanalyserer kunstig intelligens

torsdag 16 sep 21

Kontakt

Søren Hauberg
Professor
DTU Compute
45 25 38 99

Om forskningen

Resultaterne er netop offentliggjort i en prisvindende artikel ved den anerkendte konference Robotics: Science and Systems.

Learning Riemannian Manifolds for Geodesic Motion Skills  by Hadi Beik-mohammadi, Soren Hauberg; Georgios Arvanitidis, Gerhard Neumann, Leonel Rozo

https://roboticsconference.org

Robotics: Science and Systems 

Forskningen er delvist finansieret af Villum fonden samt det Europæiske forskningsråd (ERC).

 

 

Ny forskning gør det muligt at se længere ind i hjernen på kunstig intelligens (AI).

Vi ved ikke præcis, hvad der foregår inde i ’hjernen’ på en kunstig intelligens (AI), og derfor er vi ikke i stand til præcis at forudse dens handlinger. Vi kan teste og eksperimentere, men vi kan ikke altid forudsige og forstå. Kunstig intelligens udvikler sig nemlig - ligesom mennesker - i forhold til de oplevelser (i form af data), som den præsenteres for. Derfor kommer den måde kunstige intelligens agerer på nogle gange bag på os, og der findes utallige eksempler på, at kunstig intelligens har ’opført sig’ sexistisk, racistisk eller bare uhensigtsmæssigt.

”Hvis vi udvikler en algoritme, der lader kunstig intelligens finde mønstre i data for bedst muligt at løse en opgave, så betyder det ikke nødvendigvis, at vi forstår, hvilke mønstre den finder. Så selv om vi har skabt den, betyder det ikke, at vi kender den,” indleder professor Søren Hauberg, DTU Compute.

Et paradoks, der kaldes black box-problemet. Og som på den ene side bunder i kunstig intelligens’ natur som ’selvlærende’ og på den anden side i, at det hidtil ikke har været muligt at kigge ind i ’hjernen’ på AI og se, hvad den gør med de data, der danner grundlag for dens læring.

Hvis vi kunne finde ud af, hvilke data AI arbejder med og hvordan, ville det i den menneskelige verden svare til en mellemting mellem eksamen og psykoanalyse - med andre ord en systematisk måde at lære kunstig intelligens meget bedre at kende. Indtil videre har det bare ikke været muligt, men nu har Søren Hauberg og hans kollegaer udviklet en metode, der tager udgangspunkt i klassisk geometri, og som gør det muligt at se, hvordan en kunstig intelligens er blevet, som den er.

Flytterod i hjernen
Det kræver meget store datasæt f.eks. at lære robotter at gribe, kaste, skubbe, trække, gå, hoppe, åbne døre og så videre. og kunstig intelligens skal kun bruge de data, der gør den i stand til at løse en specifik opgave. Måden kunstig intelligens sorterer skidt fra kanel, og i sidste ende ser de mønstre, som den efterfølgende baserer sine handlinger på, er ved at komprimere sine data i neurale netværk.

Men ligesom når vi mennesker pakker ting sammen, kan det nemt se rodet ud for andre, og det kan være svært at gennemskue, hvilket system vi har brugt.

Hvis vi eksempelvis pakker vores hjem sammen med det formål, at det skal være så kompakt som muligt, så havner hovedpuden nemt i suppegryden for at spare plads. Det er der ikke nødvendigvis noget galt med, men udenforstående kunne nemt drage den forkerte konklusion; at puder og suppegryder var noget man havde tænkt sig at bruge sammen. Og cirka sådan har det hidtil været, når vi mennesker forsøgte at forstå, hvilke systematikker kunstig intelligens arbejder efter. Ifølge Søren Hauberg er det dog ved at være fortid nu:

”I vores grundforskning har vi fundet en systematisk løsning til teoretisk at gå baglæns, så vi kan holde styr på hvilke mønstre, som har rod i virkeligheden, og hvilke der er opfundet af kompressionen. Når vi kan adskille de to, kan vi som mennesker få en bedre forståelse af, hvordan den kunstige intelligens arbejder, men også sikre os, at AI'en ikke lytter til falske mønstre.”

Søren og hans DTU-kolleger har trukket på matematik udviklet i det 18. århundrede til brug ved tegning af landkort. Disse klassiske, geometriske modeller har fundet nye anvendelser i machine learning, hvor de kan bruges til at lave et kort over, hvordan komprimeringen har flyttet på dele af data og på den måde gå baglæns gennem AI’ens neurale netværk og forstå læringsprocessen.

Giver kontroltabet tilbage
Industrien holder sig i mange tilfælde tilbage fra at bruge kunstig intelligens, de steder i produktionen, hvor sikkerhed er en afgørende parameter. De frygter at miste kontrollen over systemet, så der sker ulykker eller fejl, hvis algoritmen møder situationer, som den ikke genkender og selv skal foretage en handling.

Den nye forskning giver noget af den tabte kontrol tilbage, så vi bedre kan forstå og styre de komplekse neurale netværkssystemer og anvende AI og machine learning til ting, som vi ikke gør i dag, fordi vi også forstår AI’en bedre og derfor bedre kan stole på den.

”Der er ganske vist stadig noget af den uforklarlige del tilbage, fordi en del af systemet er opstået ved, at modellen selv finder et mønster i data. Vi kan ikke verificere, at mønstret er det bedste, men vi kan se, at det er fornuftigt. Det er en kæmpe skridt i forhold til at have tillid til maskinen,” siger Søren Hauberg.

Metoden er blandt andet udviklet sammen med Karlsruhe Institute of Technology og industrikoncernen Bosch Center for Artificial Intelligence i Tyskland. Sidstnævnte har implementeret software fra DTU i sine robot-algoritmer. Resultaterne er netop offentliggjort i en prisvindende artikel ved den anerkendte konference Robotics: Science and Systems.


Nyheder og filtrering

Få besked om fremtidige nyheder, der matcher din filtrering.