Artificiell Intelligens bortom hype och diss
Det stora diskussionsämnet på seminarierna för Almedalen 2018 var Artificiell Intelligens. AI omnämndes på seminarier om finansvärlden, sjukvården, miljövård o.s.v. Antingen en vag lösning som med bara sin existens kommer att lösa alla nuvarande problem som egentligen beror komplexitet och bristande reformer. Det är så vi vant oss vid att höra AI-debatten, med stora utropstecken. AI kommer att ta alla jobb! Nej, AI kommer skapa alla jobb! AI kommer att utplåna mänskligheten och förvandla oss alla till gem! Eller så återges AI som något vardaglig men abstrakt, ungefär som IT återgavs en gång i tiden. Det är en diskussion som i mycket handlar om människors osäkerhet om vad som utgör ”artificiell intelligens”, vad som är möjligt att göra med den eller ens hur nära utvecklingen av AI egentligen är.
Resultaten har varit bäst på de områden där det finns stora dataset tillgängliga och uppgifterna är väldefinierade, som t.ex. att märka bilder eller översätta tal till text. AI har det svårare på intelligensens mer öppna områden: resonerande, betydelsesökande och sunt förnuft. En del forskare varnar för en ny AI-vinter, särskilt när det gäller djup maskininlärning.
AI kan delas upp i två definitioner: svag och stark AI. Svag AI kan behandla stora mängder information på ett effektivt sätt utan att egentligen förstå informationen, om vi följer filosofen John Searles definition. Stark AI kan förstå information på samma sätt som människor och ha något som liknar ett medvetande.
En allmän intelligens på mänsklig nivå används som riktmärke för forskningen. Frågan är om AI finns om den definitionen följs? Se vidare i ”AI. Varning för hype?” för mer. Det finns även en filosofisk tanke om AI vars intelligens skulle hastigt förbättras till en superintelligent nivå, som förhåller sig till människan likt människan förhåller sig till myran. Det är möjligt att en sådan mäktig AI skulle kunna utplåna mänskligheten, kanske t.o.m. av ren tanklöshet. Det är AGI- scenarion som förs fram i böcker som ”The Singularity is near” av Ray Kurzweil på Google, ”Superintelligens: vägar, faror och strategier” av Nick Bostrom på Future of Humanity Institute, eller ”Liv 3.0” av Max Tegmark på Future of Life Institute, och liknande tankar hörs från Elon Musk på Tesla eller den bortgångne fysikern Stephen Hawking.
Det är förstås mycket svårt att säga om antagandena bakom dessa scenarior kan stämma eller inte, men de har en dragningskraft på samtidens tankegångar. Många som forskar på AI anser dock att talet om superintelligens är för tidigt, och snarast har kapat utrymmet för viktigare frågor om hur algoritmerna utformas här och nu.
Det är alltså omdebatterat vilka forskningens mål borde vara, om stark AI är möjlig, eller vad AI är till att börja med. Det finns ingen samlande teori på forskningsfältet, vilket gör att det är svårt för utomstående att bedöma vad som egentligen är ett framsteg på området och vilka framtida utvecklingar som är rimliga. Det är inte alltid ens AI-forskarna kan säga det, maskininlärning är mindre överblickbar än hårdkodade system.
AI-forskningens grå vardag syns sällan, så det är lätt att Amaras lag slår till. Vi överskattar en tuff chattbot i lyxförpackning som Sophia, men underskattar de effekter bottarna på nätet kan ha redan idag då de inte kopplas till AI-begreppet.
Hur frågorna ställs spelar roll för svaren. Om AI formuleras som ett gränslöst väsen, närmast en naturkraft, så blir optimeringen av dess inlärningsprocesser något som liknar en teologisk fråga om hur man borde designa Gud. Det är därför inte en slump att många som är oroliga förespråkar att AI-teknikens utveckling måste vara hemlig och centraliserad. Det är bara att en sådan utvecklingsmodell är långt ifrån hur AI egentligen utvecklas.
För att underlätta övergången genom denna fas i utvecklingen kan lagstiftare och tillsynsmyndigheter i vart fall göra stor nytta genom att helt enkelt hålla huvudet kallt när de diskuterar tekniken. De bör avstå från att reagera reflexmässigt med alltför tunga allmänna regleringar och restriktioner. Forskarna behöver hålla en öppen kommunikation, och allmänheten tydligt kommunicera vart den vill tekniken ska gå. Det är bra mycket lättare att göra om AI hålls öppen och demokratisk.