Artificiële intelligentie (AI) is overal. De bekendste toepassingen zijn onder meer gezichtsherkenning, zelfrijdende auto's, spraakassistenten, datingapps zoals Tinder en algoritmisch nepnieuws.
...

Artificiële intelligentie (AI) is overal. De bekendste toepassingen zijn onder meer gezichtsherkenning, zelfrijdende auto's, spraakassistenten, datingapps zoals Tinder en algoritmisch nepnieuws.Zelflerende algoritmes kunnen veel, maar even vaak slaat AI de plank mis, zoals toen een zelfrijdende Tesla in 2016 tegen de oplegger van een witte vrachtwagen aanreed omdat het beeld van de witte truck te veel afweek van wat de computer eerder had geregistreerd. Bij tests botsten Tesla's de afgelopen maanden ook een aantal keren tegen stilstaande politieauto's aan. Waarom is nog onduidelijk. Op dit moment is het leerproces van zelflerende algoritmes of zogeheten neurale netwerken nog verre van ideaal, bewijzen de crashes van de Tesla.In zijn recentste boek AI: Alsmaar Intelligenter beschrijft wiskundefilosoof Stefan Buijsman, een Nederlandse whizzkid die op zijn achttiende afstudeerde als filosoof en op zijn twintigste doctoreerde in Zweden, de troeven en de valkuilen van AI. Volgens hem hoeven we niet te vrezen voor een 'robotapocalyps', waarbij computers slimmer worden dan mensen en de wereld besturen. 'We moeten wel goed nadenken over hoe we met de technologie omgaan', zegt Buijsman, die op 3 oktober een lezing geeft in de Arenberg in Antwerpen. Hoe werkt kunstmatige intelligentie? Stefan Buijsman: Het basisidee is dat je in een computerprogramma een gigantische hoeveelheid voorbeelden stopt van wat je de computer wilt laten doen. Wil je bijvoorbeeld dat hij leert autorijden, dan moet je heel veel verkeerssituaties toevoegen. Vervolgens kun je instellen hoeveel berekeningen - een paar miljoen of honderd miljard - de computer maakt alvorens hij iets beslist. In het begin zijn die beslissingen volstrekt willekeurig en komt er alleen onzin uit. Maar door telkens nieuwe voorbeelden aan het algoritme toe te voegen en aan de computer te zeggen: 'Dit was het goede antwoord', past hij zich aan, waardoor hij daarna vaker de juiste beslissingen zal nemen. Op die manier leert het algoritme patronen op te sporen. Het nadeel daarvan is dat het specifiek wordt getraind op de voorbeelden die je geeft. Als de computer met nieuwe informatie wordt geconfronteerd, kan hij alsnog slechte beslissingen nemen. Zelfs als het gaat om iets wat in mensenogen niet veel afwijkt van hetgene waarop hij is getraind? Buijsman: Als er bijvoorbeeld op een stopbord zwarte tape is geplakt, is dat genoeg om de computer van een zelfrijdende auto in de war te brengen. Het is soms moeilijk te voorspellen in welke situaties hij wel de juiste beslissing neemt en in welke niet, omdat we niet meer zo goed kunnen zien wat in de computer gebeurt. Zelfs de mensen die neurale netwerken programmeren, kunnen je niet vertellen waarom een computer een specifieke beslissing heeft genomen. Wat vindt een filosoof interessant aan algoritmes? Buijsman: Dat we een stukje autonomie afstaan aan een technologie die in onze plaats beslissingen neemt, en hoe we daar ethisch mee kunnen omgaan. Een van de grote beperkingen van neurale netwerken is dat ze gemakkelijk de waarden van de ontwikkelaars overnemen en dus onbedoeld seksistisch of discriminerend kunnen zijn. Momenteel ben ik vooral bezig met hoe je ervoor kunt zorgen dat mensen die met algoritmes werken genoeg inzicht hebben om het op een verantwoorde manier te doen. Zijn er bepaalde beslissingen die we beter niet overlaten aan AI? Buijsman: AI gebruiken voor kwaliteitscontrole in een fabriek is prima. Maar op dit moment zou ik de technologie op een heel aantal plekken nog niet toepassen. In theorie geeft de computer louter aanbevelingen, en aan het eind van het proces is het een mens die de eindbeslissing neemt. In de praktijk heeft die persoon heel vaak niet genoeg informatie of tijd om elke beslissing van de computer te evalueren, en keurt hij vrijwel automatisch alles goed wat de machine voorstelt. Daarom zou ik AI niet gebruiken voor beslissingen waarbij veel context nodig is en de sociale impact groot kan zijn. Aan welke specifieke gevallen denkt u dan? Buijsman: Leugendetectie, bijvoorbeeld, waarvoor nu al algoritmes worden gebruikt. Om leugens op te sporen, heb je informatie over de sociale achtergrond van de ondervraagde nodig, en dat lukt nog niet met zo'n algoritme. Ook systemen om fraudeurs op te sporen of mensen te classificeren volgens hun kansen op een baan, deugen niet.Als zo'n algoritme vrouwen of mensen van kleur discrimineert, dan ligt dat aan de discriminerende elementen die vervat zijn in de data die we erin stoppen? Buijsman: Grotendeels wel, al is het ook mogelijk dat het algoritme meer discrimineert dan de mensen die de data hebben gegenereerd. Amazon heeft dat meegemaakt toen het een algoritme maakte om te bepalen welke profielen het moest uitnodigen voor bepaalde IT-banen. Het algoritme gooide elk cv waarin het woord 'vrouw' voorkwam weg, omdat het had gezien dat Amazon in het verleden vooral mannen had aangeworven voor zulke banen.Wordt AI in het ideale scenario alleen ingezet voor routineklussen, terwijl wij de leukere en creatievere dingen blijven doen? Of worden mensen straks volledig door computers vervangen? Buijsman: Op sommige gebieden worden computers mogelijk slimmer dan mensen, maar even goed presteren op het vlak van algemene intelligentie en creativiteit kunnen ze gelukkig nog niet. De onderzoekers met wie ik in Delft werk, schatten dat auto's pas over 20 à 30 jaar volledig zelfstandig zullen rijden. Ik gok dat hetzelfde geldt voor de iets creatievere beroepen. Waar ik me wel zorgen over maak, is dat heel wat van de routinejobs van vandaag zullen verdwijnen zodra een computer ze kan overnemen. En dat zullen niet alleen jobs voor laagopgeleiden zijn. Accountants hebben er nu al last van. Er zullen ook wel banen bij komen, want iemand moet al die data genereren. Maar dat zijn meestal niet de leukste jobs, en bovendien zijn ze slechtbetaald.