Robotica en ethiek: ‘De stad is te gevaarlijk voor een zelfrijdende auto’

© iStock

Moet een zelfrijdende auto die een ongeluk dreigt te veroorzaken de passagiers beschermen of de voetgangers? Over zulke vragen buigt de Duitse professor computerethiek Oliver Bendel zich.

Heeft de Amerikaanse president Donald Trump u al gebeld?

OLIVER BENDEL:(lacht) Ik zie waar u heen wilt.

U hebt een ‘leugenbot’ ontwikkeld, een machine die fake news de wereld instuurt.

BENDEL: Om dat te doen heeft Trump mij niet nodig. Maar u hebt gelijk, mijn robot kan zonder verpinken liegen op internet. Ik werk in Basel en mijn bot heeft al geschreven dat daar hoge bergen zijn, wat niet klopt. Of dat de zon schijnt, terwijl het op dat moment aan het stortregenen was. Wegens een gebrek aan financiële middelen bestaat mijn leugenbot niet meer, maar in de herfst komen we met iets nieuws.

Wat wou u bewijzen door zo’n bot te maken?

BENDEL: Dat je probleemloos morele en immorele machines kunt ontwerpen. Ik wou aantonen dat bots op het internet gebruikt kunnen worden om geruchten en leugens te verspreiden.

Ik heb mijn stofzuiger zo geprogrammeerd dat hij stopt als hij een lieveheersbeestje ziet

Er bestaan al bots die discussies op sociale media beïnvloeden. Soms loopt het daarbij mis. Microsoft ontwikkelde ‘Tay’, een chatrobot die moest praten als een tienermeisje. Na een dag werd Tay offline gehaald omdat ze incest promootte en Adolf Hitler prijsde.

BENDEL: Tay was, in tegenstelling tot mijn leugenbot, een zelflerend systeem. Dat was nodig, want om echt met mensen te kunnen communiceren moet een machine bijzonder verstandig zijn. Maar zo’n machine kan in slecht gezelschap belanden en allerlei immorele dingen leren. Om dat te verhinderen, moet je beperkingen instellen en zorgen dat de bot bepaalde woorden niet gebruikt.

Heeft het zin om een computerprogramma moreel of immoreel te noemen? Kan een machine goed of slecht zijn?

BENDEL: Dat is een belangrijke kwestie in de machine-ethiek. De ethiek is al 2500 jaar een discipline die enkel over de mens gaat, maar nu is er door de computer een nieuw ethisch subject ontstaan. Natuurlijk zijn ze niet goed of slecht, want ze hebben geen eigen wil of bewustzijn. Toch nemen ze beslissingen die grote morele implicaties hebben.

Een goed voorbeeld is de zelfrijdende auto, die belangrijke morele problemen opwerpt.

BENDEL: De grote vraag is hoe een zelfrijdende auto zich in grensgevallen moet gedragen. Stel dat hij een ongeluk dreigt te veroorzaken. Moet hij dan de passagiers beschermen of de voetgangers? En welke voetgangers? Moet de auto gewoon zo weinig mogelijk slachtoffers proberen te maken? Of moet hij een selectie maken op basis van leeftijd, geslacht, etniciteit of hoe belangrijk iemand is? Wat als die auto moet kiezen tussen een meisje van achttien of een grootvader van tachtig doodrijden? Misschien is die tachtigjarige wel een wetenschapper die op het punt staat een belangrijke ontdekking te doen. Heeft hij dan meer recht om verder te leven?

Hoe moet de programmeur dat oplossen?

BENDEL: Mijn mening is duidelijk. De zelfrijdende auto heeft veel pluspunten, maar ik zou hem enkel op snelwegen gebruiken. In de stad zijn er te veel gevaarlijke situaties die een machine kunnen overweldigen. Mensen nemen vaak intuïtieve beslissingen. Ik wil niet dat een machine zulke moeilijke beslissingen moet nemen.

Mensen nemen vaak intuïtieve beslissingen. Ik wil niet dat een machine zulke moeilijke beslissingen moet nemen

Kan een machine bewust de regels naast zich neerleggen? Stel dat een fietser in het midden van de weg rijdt en zo voor een grote file zorgt. Kan een zelfrijdende auto de fietser inhalen, als hij daarvoor over een volle lijn moet?

BENDEL: Die auto zou nauwelijks weten hoe hij die situatie moet oplossen. Hij zou waarschijnlijk gewoon blijven staan, omdat hij niet kan beslissen welke regels voorrang horen te krijgen. Misschien zal de zelfrijdende auto dus voor meer files zorgen.

Een van uw meest opmerkelijke uitvindingen is een diervriendelijke stofzuiger. Waarom hebt u die gemaakt?

BENDEL: De robot doet wat ik zelf zou doen als ik stofzuig. Ik wil geen insecten doden en dus heb ik mijn stofzuiger zo geprogrammeerd dat hij stopt als hij een lieveheersbeestje ziet.

Robots kunnen in de medische sector gebruikt worden. Vindt u het oké dat een robot u zou voeden of uw intieme delen wassen?

BENDEL: Waarom niet? Het grote probleem van robots in de zorgsector zijn de problematische eisen van patiënten. Wat moet een machine doen als een patiënt vraagt om zijn beademing uit te schakelen?

Drones worden nu al ingezet om vijandelijke troepen te bombarderen. Zullen er ooit robots gebruikt worden als volwaardige soldaat?

BENDEL: Er valt iets voor te zeggen om zulke robots in oorlogsgebieden in te zetten. Maar wat mij vooral bezighoudt, is hoe een robot beslissingen zal nemen. Hoe zal hij een onderscheid maken tussen vriend en vijand? Hoe zal hij met burgers omspringen? En wat met vijanden die in burgerkledij rondlopen? Zo’n machine zal mensen heel bang maken.

In boeken en films moet de mensheid vaak een oorlog uitvechten tegen machines. Is dat realistisch? Kan een robot zich tegen de mens keren?

BENDEL: Het lijkt me surreëel dat machines ooit zouden samenwerken tegen de mens. Maar een computer die nazistische praat uitslaat? Dat kan vandaag al.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content