• No results found

NRC Opinie: De digitale dokter weet niet wie hij voor zich heeft

N/A
N/A
Protected

Academic year: 2021

Share "NRC Opinie: De digitale dokter weet niet wie hij voor zich heeft"

Copied!
1
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

De digitale

d o k te r

weet niet

wie hij

voor zich

heeft

Technische hulptroepen in de zorg houden geen rekening met

individuele patiënten en schetsen te vaak een vertekend beeld,

schrijven Maartje Schermer en Lucas Cornips.

FO

TO�IS

TOCK

D

e belofte van kunstmatige

intelligentie is vermoedelijk in geen sector zo groot als in de zorg. Te midden van alle hype en ook dystopische verhalen zou je haast verge-ten dat de bijdrage aan maatschappelijke vraagstukken van intelligente systemen – ‘ze l fl e re n -d e’ of machine learning-systemen – vo o r a l s n o g gering is. Het Engelse bedrijf Babylon beweer-de met veel bombarie dat zijn chatbot net zo goed is als artsen in het beoordelen van symp-tomen. Die claim haalde zelfs de BBC, maar bleek later misleidend. Mogelijk ziet Babylon ernstige of zeldzame gevallen over het hoofd,

en stuurt het systeem tegelijkertijd meer pa-tiënten ten onrechte naar de dure eerste hulp. In april verwijderde Babylon stilletjes alle be-richtgeving over een demonstratie die de meer-waarde van het systeem moest aantonen.

Om als patiënt, zorgverlener en maatschap-pij de vruchten te kunnen plukken van zoge-naamde medische expertsystemen dient nog een hoop werk verzet te worden én is ethische reflectie nodig. Expertsystemen blijken vaak niet goed aan te sluiten bij het complexe werk in ziekenhuizen, waardoor artsen het gebruik ervan als een storende onderbreking ervaren. Een oudere generatie expertsystemen waar-schuwt artsen bijvoorbeeld als er een interactie dreigt tussen twee of meerdere

voorgeschre- Lucas�Cor-nips w�e�r�kt als�secretaris voor�de�Ge- zo�n�d�h�e�i�d�s�-ra�a�d�. Maartje Schermeris h�o�o�g�l�e�ra�a�r filosofie�van de�genees-kunde�en�de maakbaar�-heid�van�de mens�aan�het Erasmus�MC en�is�voorzitter van�de�CEG-co�m�m�i�s�s�i�e�. ven medicijnen. Zo worden fouten voorkomen,

maar bij te veel van dat soort digitale assisten-tie dreigt waarschuwingsmoeheid. Artsen klik-ken waarschuwingen dan gedachteloos weg, met als paradoxaal effect dat de zorg juist on-veiliger wordt.

Een bekend voorbeeld van een nieuw ex-pertsysteem is IBM’s Watson for oncology. Dit systeem analyseert wetenschappelijke litera-tuur en de individuele kenmerken van een pa-tiënt en geeft op basis daarvan behandeladv ie-zen. ‘Wat s o n’ kan bijna oneindige hoeveelhe-den data en literatuur verwerken en wordt ook na een lange dienst niet moe. Het systeem is bovendien getraind door artsen in een gespeci-aliseerd Amerikaans ziekenhuis. Klinkt goed, to c h?

M

aar of de behandelaanbevelingen van

Watson ook passen bij een patiënt in de spreekkamer blijft onduidelijk. Misschien werd het systeem alleen getraind

met heel bijzondere gevallen, misschien ging het vooral om jonge patiënten die heel agres-sieve behandelingen kozen. Uit een van de wei-nige wetenschappelijke publicaties over de werking van Watson for oncology bleek name-lijk dat hoe ouder de patiënt was, hoe minder goed de aanbevelingen van het systeem strook-ten met de aanbevelingen van een groep art-sen, de zogenoemde ‘gouden standaard’. De artsen hielden meer rekening met de wensen en draagkracht van die specifieke, oudere pa-tiënt. Dit voorbeeld laat zien dat allerlei vor-men van bias, vertekening, onbedoeld inge-bouwd worden in intelligente systemen. Pa-tiënten en artsen kunnen daardoor op het ver-keerde spoor gezet worden door expertsyste-men.

Nu is het zo dat bias ook in de medische lite-ratuur voorkomt. Maar in tegenstelling tot de nieuwe generatie intelligente systemen wordt in goed medisch onderzoek beschreven welke data en analysemethoden zijn gebruikt. Bedrij-ven houden de precieze werking van hun intel-ligente systemen liever geheim om zo de con-current niet in de kaart te spelen. Zo blijft een expertsysteem een black box, en daardoor is het moeilijk te vertrouwen. Want hoe is vast te stellen of een systeem het best mogelijke ad-vies geeft voor een individuele patiënt als de werking van het systeem niet transparant is? Ethische vragen waar artsen, ontwikkelaars en patiënten mee te maken krijgen, gaan onder a n d e re over aansprakelijkheid bij medische fouten. Welke taken in de complexe zorg kun-nen en willen we wel, en welke kunkun-nen en wil-len we niet overlaten aan expertsystemen? Ze-ker aan het einde van het leven zal een arts goed met de patiënt en diens naasten moeten spreken over het doel van een medische be-handeling. Maar welk doel streven expertsyste-men eigenlijk na; zo lang mogelijk leven, zo lang mogelijk mobiel blijven, zo min mogelijk lijden? Ontwikkelaars doen er goed aan om de precieze werking en doelen van expertsyste-men inzichtelijk te maken. Artsen kunnen dan ook beter beoordelen of een expertsysteem een waardevolle bijdrage aan de zorg kan leveren.

G

elukkig krijgen momenteel niet alleen

de kansen maar ook de risico’s van kunstmatige intelligentie en data(mis-bruik) aandacht in de politiek en maatschappij. Maar ook bij andere vormen van digitale tech-nologie in de zorg doen zich medisch-inhoude-lijke en ethische vragen voor. Op verzoek van minister Bruno Bruins (Medische Zorg, VVD), brengt het Centrum voor Ethiek en Gezond-heid (CEG) daarom het komend jaar r a p p o r te n uit over de ethische aspecten van wearable s en gezondheidsapps, robots en het gebruik van sensoren. Voor al deze technologieën is onaf-hankelijke reflectie nodig op nut en wenselijk-heid, liefst in een vroege fase zodat de techno-logie nog kan worden bijgestuurd. Zonder openheid van ontwikkelaars zal de goede digi-tale dokter voorlopig nog toekomstmuziek blij-ve n .

Ho e

ouder de

p a t i ë nt ,

hoe meer

adv iezen

van echte

en

d i g it a l e

d o k t e rs

ve rs c h i l l e n

Referenties

GERELATEERDE DOCUMENTEN

Ook vanuit de visie dat we niet alle pampers kunnen voorzien voor een gezin, maar dat het een duwtje in de rug is.”.. “We moeten kiezen voor 1 keer per maand, 25 pampers te geven

De eerste conclusie die in het rapport wordt getrokken luidt: “De governance stakeholders zoals de Raad van Bestuur, Raad van Commissarissen en Auditcommittee worden steeds

Omdat artikel 13 lid 4 Zvw niet toestaat dat de vergoeding voor niet-gecontracteerde zorg wordt gedifferentieerd naar de financiële draagkracht van de individuele verzekerde, zal

Deze nog niet uitgekomen knoppen worden door Japanners gebruikt voor een middel tegen kanker, waarvan sinds 2015 het effect wetenschappelijk zou zijn aangetoond.. Auteur: Santi

Op basis van de antwoorden kunnen we niet alleen de vraag beantwoorden welke eigenschappen goede lokaal bestuurders in het algemeen bezitten, maar ook de vraag welke

Omdat de bezoekers op elk willekeurig moment in een van deze groepen ingedeeld werden en baliemedewerkers niet op de hoogte waren van het type handvest (ambities, weinig ambitieus,

Als hij/zij een ernstige fout heeft gemaakt Als hij/zij niet integer is geweest Als inwoners gemeente geen vertrouwen meer hebben Als gemeenteraad geen vertrouwen meer heeft

Binnen deze groep bevinden zich immers veel 'oude' AWW-ers die op 1 juli 1996 samenwoonden met een nieuwe partner en dat op 31 december 1997 nog steeds deden, waardoor hun