‘Is artificiële intelligentie de heilige graal in de strijd tegen kanker?’

We moeten ook uitkijken voor de hype van medisch gebruik van artificiële intelligentie, zeggen filosofen Massimiliano Simons (UGent), Mauritz Kelchtermans (KU Leuven) en Lode Lauwaert (KU Leuven), en ons afvragen of deze doorbraak wel zo eenduidig positief is als ze op het eerste gezicht lijkt.

Het voorbije decennium was dat van de sociale netwerken en smartphones. De kans is reëel dat we later zullen zeggen dat de jaren 2020 het decennium van de eerste grote zomer van de artificiële intelligentie (AI) was. Intussen weten we echter dat het gebruik van AI niet enkel tal van voordelen heeft, maar ook veel problemen, vragen en bezwaren met zich meebrengt. Denk bijvoorbeeld aan de zelfrijdende wagens en killer robots. Geldt hetzelfde ook niet voor het medisch gebruik van AI?

Geneeskunde zonder arts?

Op 1 januari 2020 verscheen een studie in het vaktijdschrift Nature waarin de auteurs aantonen hoe een AI-systeem van Google Health en DeepMind de opsporing van borstkanker duidelijk kan verbeteren. Op basis van de gebruikte dataset stellen zij dat AI minder fouten maakt dan een radioloog.

Hoewel het niet de eerste keer is dat AI wordt ingezet voor medische diagnoses, toont dat nog maar eens de kracht en de belofte van de nieuwe technologie. Door betere diagnose en therapie is er een relatieve daling van het sterftecijfer, ondanks de toename van het aantal patiënten met borstkanker.

Ook kunnen daardoor onnuttige biopsieën worden vermeden en is er veel minder nood aan een tweede opinie van een collega-radioloog. Bovendien geldt voor dit AI-systeem dat haar model, ontwikkeld op basis van een Britse populatie, ook succesvol was in de VS. Dat is een opmerkelijke vooruitgang, gezien de verschillen in populaties en omdat die verschillen in voorgaande experimenten met AI wel voor problemen zorgden.

In het spoor van Geoffrey Hinton (één van de godfathers van recente ontwikkelingen in AI) menen sommigen daarom dat we moeten stoppen met het opleiden van radiologen. Want als AI inderdaad beter is in patroonherkenning dan mensen, waarom dan nog zoveel tijd en geld stoppen in onderwijs?

Is artificiële intelligentie de heilige graal in de strijd tegen kanker?

In het licht van wat we in Nature lezen, lijkt het onverantwoord om geen AI te gebruiken. Niettemin menen wij dat het een brug te ver zou zijn om de radioloog uit het medische proces te halen. Waarom? Een: onderzoek leert dat de combinatie van AI én radioloog het beste resultaat geeft – beter dan de radioloog of AI afzonderlijk. Twee: de radioloog kijkt verder dan het prentje en kan de patiënt (anders dan AI) ook holistisch benaderen.

Iedereen patiënt?

Toch moeten we ook in dit geval uitkijken voor de hype, en ons afvragen of deze doorbraak wel zo eenduidig positief is als ze op het eerste gezicht lijkt. Bestaat bijvoorbeeld niet de kans dat de data gehackt worden? En wat met de privacy van de patiëntendossiers als ze in handen van Google komen? Willen we leven in een wereld waarin Google ons ongevraagd gepersonaliseerde reclame voor geneesmiddelen en therapieën aanlevert op basis van de data die het artificiële systeem mogelijkerwijs tijdens de diagnose heeft verkregen?

Naast deze voor de hand liggende vragen duikt ook het probleem van ‘overdiagnosticering’ op. De laatste jaren is er kritiek gekomen op het gebruik van mammografieën. Niet alle kankers die worden gedetecteerd vragen effectief om een interventie. Naast agressieve en gevaarlijke kankers bestaan er immers ook kankergezwellen die heel traag aangroeien en binnen een menselijke levensduur geen reëel gevaar vormen. De huidige technologieën zijn niet in staat een onderscheid te maken tussen deze twee soorten kankers. Het gevolg is echter wel dat tot één op drie patiënten onnodig de risico’s van een kankerbehandeling ondergaat, terwijl de kanker zelf niet werkelijk levensbedreigend is.

Ook de nieuwe AI is niet in staat dat onderscheid te maken en kan dus bijdragen aan ‘overdiagnosticering’. Het steunt namelijk op een dataset van biopsieën die in het verleden gebeurd zijn, terwijl men momenteel niet in staat is om bij biopsieën een onderscheid tussen deze twee soorten kankers te maken. Hoewel het AI-systeem van Google Health en DeepMind minder fouten maakt, is dat probleem dus niet opgelost. De invoering van AI zal er nog steeds toe leiden dat onnodige ingrepen worden uitgevoerd (maar natuurlijk ook dat er meer levens gaan gered worden).

It’s the economy, stupid!

Een andere heikele kwestie zijn de sociale gevolgen. Om die te kunnen inschatten, moet je kijken naar de motieven achter de invoering van AI.

Als je met de arts of het bedrijf achter de AI spreekt, zullen ze wijzen op de positieve effecten, zoals het helpen van patiënten. Wanneer echter wordt nagedacht over het gebruik van AI spelen ook andere actoren een rol, zoals het management van ziekenhuizen. Vaak telt voor hen ook nog een ander motief dan de optimalisering van patiëntenzorg: efficiëntiewinst en bezuinigingsdoelstellingen. AI is dan aantrekkelijk omdat ze een kostenbesparing suggereren, bijvoorbeeld doordat men minder tijd per patiënt moet spenderen of zelfs met minder artsen kan werken.

Dat gevaar lijkt hier minder reëel, gezien de meerwaarde van de combinatie van radioloog en AI. Niettemin willen we toch de aandacht vestigen op het risico dat ziekenhuizen in de toekomst niet zouden aansturen op de combinatie maar op de vervanging van de radioloog door de technologie.

Een bijkomende sociale zorg is dat deze nieuwe systemen nodeloos het kostenplaatje voor de patiënt zouden kunnen opdrijven. Dat was zo bij de voorganger van deze nieuwe medische AI, de zogenaamde ‘computer-aided detection’ (CAD), die al in 1998 werd goedgekeurd. Naast tegenvallende resultaten, volgden snel verhalen van radiologen die onder druk werden gezet door ziekenhuisbeheerders om CAD zo vaak mogelijk te gebruiken omdat patiënten er extra voor in rekening kunnen worden gebracht. Het lijdt weinig of geen twijfel dat winstmaximalisatie daar het doel was. AI is de nieuwe olie.

Wie is verantwoordelijk?

Tot slot stelt zich ook de vraag naar verantwoordelijkheid. Heel vaak is die vraag niet moeilijk te beantwoorden. Bij het gebruik van klassieke technologieën en instrumenten is de arts in (zo goed als) alle situaties de enige verantwoordelijke. Maar is dat nog altijd zo wanneer AI wordt gebruikt? Wanneer een arts een foute keuze maakt op basis van een fout resultaat van de AI, kun je dan nog steeds beweren dat uitsluitend de arts verantwoordelijkheid draagt, zeker wanneer blijkt dat de AI over het hoofd van de arts door het management werd ingevoerd en opgelegd?

Deze vraag dringt zich op, omdat het risico bestaat dat de arts wordt gereduceerd tot een soort van ‘morele kreukelzone’ van de manager van het ziekenhuis of het bedrijf achter de AI. Zoals een kreukelzone in een auto is ontworpen om de impact van een botsing te absorberen, kan op gelijkaardige wijze binnen het ziekenhuis de arts gedwongen worden het merendeel van de morele verantwoordelijkheid op te vangen. Het AI-systeem en het ziekenhuisbeleid blijven zo buiten schot, terwijl de arts alle klappen opvangt.

Willen we daarmee argumenteren tegen het gebruik van AI in de medische sector? Neen, want het gebruik zal talloze levens redden, iets wat wellicht opweegt tegen de risico’s. Wel pleiten we ervoor om technologie bedachtzaam in te voeren in de zorg (en elders), en de ethische vragen en sociale keuzes die ermee gepaard gaan in het achterhoofd houden.

Massimiliano Simons (UGent), Mauritz Kelchtermans (KU Leuven) en Lode Lauwaert (KU Leuven) zijn filosofen en de stichtende leden van de Working Group on Philosophy of Technology (WGPT) (www.hiw.kuleuven.be/wgpt)

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content