Två föredrag i Borlänge

Fredagen 28e september kommer jag att hålla två (snarlika) föredrag om artificiell intelligens i Borlänge. Först ett lunchföredrag hos Dalarna Science Park och sedan ett kvällsföredrag på 2047 Science Center, som en del av initiativet Forskarfredag. Jag kommer att förklara hur AI fungerar, vad det används till idag och vad det kan komma att användas till i framtiden. Välkomna dit!

Några dagar innan det, den 25e september, kommer jag att vara i Göteborg för att prata om nästa generations AI-drivna phishingattacker på IDG:s Next Generation Threats-event.

Att bekämpa översvämningar med (eller utan) AI

Att skriva om översvämningar känns en smula märkligt efter en rekordvarm sommar med torka och skogsbränder (även om Uppsala centralstation översvämmades av störtregn i slutet av juli). Men vad annat kan jag göra när Wired skriver en spännande artikel om hur AI kan användas för att förebygga just översvämningar? Och eftersom vi kan förvänta oss mer extremt väder i takt med att planeten blir allt varmare så kan vi inte börja tänka på den här sortens frågor snart nog.

Sommaren har varit varm och torr.

I Wired-artikeln beskrivs hur man med hjälp av AI skapat en karta som kan användas för att övervaka risken för översvämningar. I texten kan man plocka upp tre punkter som är återkommande för i stort sett alla AI-projekt:

  • AI-system behöver stora mängder data för att byggas upp – och som så ofta är fallet så var det i det här projektet väldigt arbetsintensivt att samla ihop och strukturera de data som användes.
  • Men, efter en stor arbetsinsats i inledningen av projektet kan AI sedan användas för att automatisera processen. När man senare vill uppdatera sina kartor går det i ett nafs.
  • Att likt artikelns rubrik påstå att ”AI förebygger naturkatastrofer” är att överdriva. AI löser oftast inte hela problem åt oss, utan är ett verktyg som används som ett steg i problemlösningen. I det här fallet hjälper de AI-skapade kartorna oss att övervaka vattenflöden och risker. I slutändan är det ändå människor som väljer att göra eller inte göra något utifrån den informationen.

Neurala nätverk och andra populära AI-verktyg är fantastiska när vi vill automatisera olika rutinartade uppgifter, men kan få problem när de ställs inför helt nya situationer. Eller när man ber dem att komma med prognoser för vad värsta möjliga utfall är. Ett exempel är frågan om hur högt vattenståndet som högst kommer vara i Fyrisån de kommande hundra åren. Svaret på den frågan är enormt viktigt när man planerar bebyggelse kring ån – vi kan inte nöja oss med att undvika översvämningar ett genomsnittligt år utan måste förstås bygga med marginal så att vi även slipper dem de år då vattnet står som högst. Här räcker dagens AI-lösningar inte till, men det finns utmärkta matematiska modeller som går att använda för att få en bra uppfattning om hur illa det kan gå. Sådana så kallade extremvärdesmodeller kommer jag att återkomma till i ett framtida blogginlägg (och de kan förresten också användas för att förutspå hur varmt 2000-talets varmaste julimånad kommer vara, eller hur lite regn som kommer falla under århundradets värsta torka).

e-hälsa ger bättre vård – med eller utan AI

e-hälsa och digitalisering av vården är 2010-talets melodi och nu börjar vi på allvar se fördelarna med det inom medicinsk diagnostik. Ta patienter som hamnar på sjukhus som ett exempel. Genom åren har flera statistiska modeller för att förutspå mortalitet, oplanerade återbesök och långvarig inläggning på sjukhus tagits fram. Genom att använda information om exempelvis blodtryck, puls, andning och vita blodkroppar kan modellerna med hyfsad noggrannhet avgöra risken att en patient avlider, tvingas komma tillbaka till sjukhuset eller blir kvar i mer än en vecka.

I en intressant artikel från maj i år visar forskare från bland annat Google och Stanford att ett AI-system som kan läsa digitala journaler gör ett betydligt bättre jobb när det gäller att förutspå sådana risker. Artikeln har uppmärksammats stort i media, bland annat av Daily Mail och Bloomberg. Studien ser ut som en triumf för e-hälsa och forskarna ägnar mycket utrymme åt att beskriva fördelarna med djupinlärning, som är den form av AI de använt.

Det är lätt att hålla med om att det här är ett stort kliv framåt för e-hälsa – det visar att datorsystem som tolkar hela journaler istället för några få mätvärden har stor potential. Däremot är det knappast något stort kliv framåt för AI. Den som läser artikeln lite närmare hittar nämligen en jämförelse mellan forskarnas djupinlärningssystem och ett betydligt enklare system som matats med samma journaldata. Det senare använder logistisk regression – en stapelvara inom traditionell statistisk analys, som lärs ut på grundkurser och har funnits sedan 1950-talet. Jämförelsen, som ligger gömd längst ner i artikelns appendix, visar att skillnaden mellan djupinlärning och logistisk regression är minimal (och ser ut att vara inom felmarginalen).

Att lära upp djupinlärningssystem är tidskrävande och kräver mängder av beräkningskraft. Logistisk regression är betydligt enklare att använda, kräver mindre datorkraft och har dessutom fördelen att modellen går att tolka: djupinlärningssystem är så kallade svarta lådor där vi inte vet varför de gör en viss bedömning, medan vi med logistisk regression kan förstå precis varför systemet gör bedömningen. Om båda systemen fungerar lika bra så ska man välja logistisk regression alla dagar i veckan. En produkt som inget vet hur den fungerar är förstås inte lika bra som en produkt som vi kan förstå.

I den här och liknande artiklar kan man just nu skönja två tendenser:

  • e-hälsa kommer fortsätta leda till förbättrad vård och smart användning av digitala journaler kommer leda till bättre diagnoser.
  • Alla vill hoppa på AI-tåget och det är lätt att bli förblindad av alla glänsande nya AI-verktyg. Det verkliga bidraget i den här artikeln är sättet att få ut information från digitala journaler – inte användet av djupinlärning. Trots det talar både forskarna och media mest om AI-aspekten.

Den dataanalys som använder de häftigaste senaste teknikerna är inte alltid den som är bäst. Det är något som är väl värt att ha i åtanke när ni anlitar konsulter för dataanalys. Ibland är AI och djupinlärning precis rätt verktyg för era problem, men ibland är andra alternativ mycket bättre. Precis som man ska vara försiktig med att anlita en snickare som tror sig kunna lösa alla byggprojekt med bara en hammare så ska man tänka sig för innan man anlitar en konsult som vill lösa alla problem med AI.

AI mot AI och it-säkerhet

AI och ML är två populära förkortningar inom modern it-säkerhet, som står för artificiell intelligens respektive maskininlärning. Det pratas (med all rätt) mycket om hur dessa tekniker kan användas för att förbättra it-säkerhet, exempelvis genom automatisk upptäcka och stoppa cyberattacker. Det kanske mest kända exemplet på det är spam- och phishingfilter, som idag med god noggrannhet kan blockera skräppost och bedrägeriförsök.

Men AI kan också användas av de som utför attackerna.

På senare år har URL:er (webbadresser) som används i phishingattacker allt mer börjat genereras automatiskt. Säkerhetsföretagen har i sin tur utvecklat filter som med hjälp av AI och ML ska känna igen sådana URL:er – även när de inte använts i tidigare phishingförsök. Problemet är att sådana system går att lura.

Ett högaktuellt forskningsområde inom artificiell intelligens är så kallade adversarial examples eller, fritt översatt, fientliga exempel. Det handlar om att göra små modifiering av något som ska bedömas av ett AI-system (exempelvis en URL eller en bild) för att lura systemet. Det har gjorts enorma framsteg inom AI-drivna bildigenkänningsystem de senaste åren, och moderna system kan utan större problem känna igen olika föremål (fjärilar, bilar, osv), olika personers ansikten, oroväckande hudförändringar, med mera. Fientliga exempel har hittills oftast konstruerats för att lura just sådana bildigenkänningssystem. De skapas med hjälp av AI: man konstruerar ett nytt AI-system som får lära sig att lura bildigenkänningssystemet. Och det visar sig att genom att ändra några få pixlar i bilden, på ett sätt som knappt märks för människor, så kan man få AI-systemen att helt missbedöma vad de ”ser” i bilden. Med små små ändringar kan vi få datorn att tro att en bild på en fjäril i själva verket föreställer en lastbil.

Ovan: en fjäril. Nedan: en lastbil…?!

Det här kan förstås få oroväckande konsekvenser. Vad händer exempelvis om man lyckas lura kamerorna i en självkörande bil? Kan man lura ansiktsigenkänningsystem som används för identifiering istället för passerkort? Och kan de som ligger bakom phishingattacker använda samma teknik för att skapa URL:er som tar sig förbi säkerhetsföretagens filter?

Svaret på den sista frågan är definitivt ja. I en studie från juni i år visade några forskare vid säkerhetsföretaget Cyxtera att de med hjälp av AI kunde öka andelen phishing-URL:er som passerar nätfiskefilter från 0.69 % till 21 % i ett fall, och från 5 % till 36 % i ett annat fall. Det är dramatiska skillnader, som alltså nås genom att ett AI-system lärs upp i konsten att lura phishingfilter.

Från bildigenkänningsvärlden vet vi att system som tränas i att lura ett visst igenkänningssystem för det allra mesta också lyckas lura andra liknande igenkänningssystem. Rimligen innebär det att detsamma gäller för URL:er, vilket skulle kunna möjliggöra en ny framgångsrik våg av nätfiske – men bara om vi inte är vaksamma. Det går nämligen att förbättra dagens AI-drivna phishingfilter genom att lära dem att känna igen fientliga exempel. Det gör man genom att (som i Cyxteras studie) själv konstruera fientliga exempel riktade mot sitt system, som man sedan visar för systemet för att lära det att identifiera sådana bluffar. Projektet CleverHans försöker underlätta den strategin genom att erbjuda öppen källkod som kan användas för att förbättra systems skydd mot fientliga exempel.

Framtidens it-säkerhet ser ut att bli en kamp mellan AI och AI. Det gäller därför att hela tiden tänka på hur AI- och ML-system kan luras och utnyttjas. Den som inte ligger steget före kommer få ångra det.

Vad innebär automatiseringen för det livslånga lärandet? Fler behöver läsa statistik

Det pratas allt mer om automatisering och vad det kommer att innebära för framtidens arbetsmarknad. OECD bedömer att ungefär 8 % av de svenska jobben kan försvinna som en följd av automatisering – och att den siffran är betydligt högre i en del andra länder. Andelen jobb som på olika sätt kommer påverkas och förändras av automatisering är däremot betydligt högre. Det innebär också att vi i framtiden måste vara beredda på att kontinuerligt vidareutbilda oss, när automatiseringen gör att arbetsuppgifterna ständigt förändras.

Större företag kommer att erbjuda intern vidareutbildning för sina anställda (Disney är ett aktuellt exempel på det), medan mindre företag får förlita sig på externa lösningar – antingen erbjuder man lön under utbildningar för att behålla personalen eller så använder man frilansare, för vilka egenbekostade utbildningar blir en del av den nya gigekonomin.

Här kommer förstås också staten få en stor roll att spela, och stora nya krav kommer ställas på vuxenutbildningen. I februari gav regeringen därför Vinnova i uppdrag att ta fram korta kurser på avancerad högskolenivå, särskilt utformade för vidareutbildning av yrkesverksamma specialister och nyligen gavs sju universitet i uppdrag att satsa på AI-fortbildning.

Ett område som väldigt många kommer behöva vidareutbilda sig inom är databearbetning och statistik, inklusive artificiell intelligens. Dels för att kunna använda och jobba med de nya automatiserade verktyg som kommer, och dels för nya arbetsuppgifter knutna till desamma. Ett exempel på en arbetsuppgift som kommer bli allt vanligare är datastädning: system för artificiell intelligens och maskininlärning fungerar bara bra om de matas med bra data – så någon måste se till att data håller hög kvalitet och inte innehåller felaktigheter. Räkna med att personal inom exempelvis sjukvården kommer behöva lära sig mer om datastädning under det kommande årtiondet.

En region som redan kommit långt inom databearbetning och statistik är Edinburgh i Skottland, som nu satsar på att bli ”Europas datahuvudstad”. Jag jobbar sedan i vintras med att utveckla University of Edinburgh nya kurser i sannolikhetslära och statistik, nyckelkurser inom deras nystartade masterprogram i data science (statistik, programmering, datahantering och dataanalys) där all undervisning sker över nätet.

Cockburn street i Edinburgh - en av de första gatorna man stöter på som turist, samt skådeplats för delar av Avengers: Inifinity War

Det finns fler anledningar till att man väljer att förlägga undervisningen för de här programmen online – anledningar som rimmar väl med framtidens behov av kontinuerlig vidareutbildning:

  • Det gör det möjligt att på ett effektivt sätt erbjuda undervisning till stora grupper studenter,
  • Det gör det möjligt för studenter som av olika anledningar inte har möjlighet att flytta till en universitetsstad att vidareutbilda sig (dit kan exempelvis personer som har ett jobb, familj eller rörelsehinder höra),
  • Det demokratiserar utbildningen genom att ge studenter från alla delar av världen möjlighet att studera vid ett prestigefyllt brittisk universitet.

Värt att poängtera är att onlineundervisning är ett komplement till och inte en ersättning för den traditionella salsundervisningen vid lärosätet, som fortfarande kan förväntas vara det första steget för de allra flesta. Distansundervisning är för övrigt inget nytt i sig – men ambitionsnivån och skalan på de program som nu kommer skiljer sig åt från det vi tidigare har sett. Det ställs därför också högre krav, bland annat när det gäller:

  • Förbättrade möjligheter till interaktion mellan studenterna,
  • Examination som i större utsträckning är (just det!) automatiserad, utan att den för den sakens skull bara utgörs av flervalsfrågor,
  • Användande av AI för att utvärdera och stimulera studenternas lärande.

En stor del mitt projekt med University of Edinburgh har hittills handlat om att hitta bra lösningar på framförallt de två förstnämnda utmaningarna. Vår första kurs startar i lite mindre skala september, och kommer sedan följas av en storskalig kurs med start i januari. I samband med det kommer jag att återkomma till hur vi jobbar med AI, studentinteraktion och automatiserad examination.