Kak Khee Yeung is vaatchirurg in het Amsterdam UMC en doet daarnaast onder meer onderzoek naar aorta aneurysma. In iedere editie van Hartbrug Magazine houdt ze ons op de hoogte van haar werk en de nieuwste ontwikkelingen binnen haar vakgebied. Dit keer vertelt ze, samen met bijzonder hoogleraar Recht, zorgtechnologie en geneeskunde Corrette Ploem, over ethiek binnen het gebruik van AI.
Wat is het snijvlak tussen jullie vakgebieden?
Kak Khee: “Zoals ik in eerdere edities heb verteld, willen we AI gaan gebruiken om voorspellingen te kunnen doen over of een ziekte erger wordt in de toekomst en of en wanneer iemand een operatie nodig gaat hebben. Binnen ons Vasculaid-onderzoek maken we bijvoorbeeld gebruik van data die patiënten zelf verzamelen via een app op hun telefoon. Net als bij elk onderzoek, moeten we ons hierbij houden aan allerlei wetten en protocollen. Voor we starten, worden de onderzoeksmethoden ook bekeken door de privacy officer en ethische commissie. Aangezien AI een nieuwe tool is binnen de zorg, moeten hier specifieke regels voor ontwikkeld worden, of misschien moeten bestaande wetten en protocollen iets worden aangepast. Dit doen we samen met onze hoogleraar Corrette Ploem.”
Corrette: “Internationaal zijn er al diverse wetten en regels opgesteld over het gebruik van AI. Mijn werk binnen het ziekenhuis gaat vooral over de uitvoering daarvan in de praktijk. Dat is vrij complex, want naast de Europese kaders heb je ook de nationale wetten en regels en de algemene patiëntenwetgeving. De eerste stap is om te kijken waar er overlap is en waar nog onduidelijkheid over heerst. Stap twee is om in kaart te brengen welke zaken er spelen op ethisch en juridisch vlak. Van daar uit proberen we met de artsen en onderzoekers mee te denken: welke richtlijnen of aanpassingen zijn er nodig, zodat de AI-toepassing die wordt ontwikkeld, kan worden ingevoerd in de reguliere zorg?”
Voor patiënten gaat het soms wat snel. Vroeger werd vooraf toestemming gevraagd voor het gebruik van hun gegevens, met AI gaat dit vaak automatisch. Waarom?
Corrette: “Binnen deze discussie zijn er twee stromingen: de eerste is dat de patiënt maximale zeggenschap behoudt over zijn gegevens, de tweede is dat – als je de beste kwaliteit van zorg wilt – je enig verlies van zeggenschap over je data voor lief moet nemen. Deze tweede stroming heeft internationaal aan terrein gewonnen: er zijn Europese regels ingevoerd waarin er is afgestapt van een expliciet toestemmingssysteem en er is overgegaan naar een geen-bezwaar-systeem. Ik blijf graag wijzen op het belang van openheid naar de patiënt. Een belangrijke boodschap is dat deze een grote bijdrage kan leveren aan de verbetering van de zorg door diens gegevens te doneren. In de praktijk blijkt dat de meeste patiënten dit ook graag willen, op een paar na. Die hebben altijd de ruimte om ‘nee’ te zeggen. Dat recht moeten we hen niet ontnemen en is ook nodig om de vertrouwensrelatie tussen arts en patiënt te bewaken.”
Kak Khee: “Het klinkt misschien spannend dat je patiëntengegevens worden verzameld door het ziekenhuis, maar in de praktijk geven we vaak al heel veel gegevens uit handen, zonder dat we dit weten. Denk bijvoorbeeld aan de health app van Apple of de stappenteller op je smartphone. In het ziekenhuis word je daar tenminste over ingelicht en hebben we strenge regels op het gebied van privacy en ethiek, waar we aan moeten voldoen. Met een app van een bedrijf weet je lang niet altijd wat ermee gebeurt. We vinden het uiteraard heel belangrijk om transparant te zijn naar patiënten en om zorgvuldig met hun data om te gaan.”
Welke rol speelt ethiek hierin?
Corrette: “Een ethische uitdaging is bijvoorbeeld of de arts ook veilige AI-tools, zoals apps en smartwatches, kan ontwikkelen, zónder het gebruik van de gegevens van patiënten die ze niet beschikbaar willen stellen. Ik kan me voorstellen dat je nog wel kunt zeggen: ik gebruik liever die app of smartwatch niet; maar is de monitoring van je ziekte in de toekomst dan nog wel mogelijk en is het zorgsysteem voor de arts dan nog betrouwbaar? Heel eerlijk, op dit soort vragen heb ik nog geen goed antwoord. Mijn advies aan artsen en onderzoekers, zoals Kak Khee, is om zoveel mogelijk ruimte te houden om samen met de patiënt over AI-gebruik te beslissen; maar de patiënt moet ook weten dat het gebruik van AI het makkelijker maakt voor artsen om goede zorg te verlenen.”
Hoe veilig is het om toestemming te geven? Worden de gegevens volledig geanonimiseerd? En hoe weet je zeker dat ze niet in verkeerde handen komen?
Corrette: “Anonimisering van gegevens is vaak niet volledig mogelijk, maar de zorginstellingen spannen zich wel in om de privacy van patiënten goed te beschermen. Er wordt bijvoorbeeld gewerkt met coderingen waaraan de patiënt gekoppeld is. De medische protocollen voor AI-onderzoek binnen het ziekenhuis zijn heel zorgvuldig opgesteld, maar bij AI-ontwikkeling heb je ook te maken met bedrijven waar je mee samenwerkt. Dat bedrijf krijgt dan ook vaak de gegevens van patiënten in handen. Daar worden uiteraard afspraken over gemaakt, zoals dat het bedrijf de gegevens niet deelt met andere partijen, maar er wordt bij mijn weten niet gecontroleerd of die afspraken ook worden nageleefd. Daardoor kun je als arts of onderzoeker niet garanderen dat het nooit misgaat op dit vlak. Vanuit het ziekenhuis nemen we maatregelen om de privacyrisico’s zo klein mogelijk te houden, maar risico’s worden groter als je samenwerkt met commerciële partijen, zeker als die in landen gevestigd zijn waar de privacy minder gewaarborgd is, zoals China. Maar ook als je werkt met iemands genetische code of met lichaamsmateriaal. Als je eenmaal iemands DNA hebt, is iemand makkelijker terug te vinden dan als je alleen een bloeddrukwaarde hebt. Belangrijk is om als ziekenhuis zo veel mogelijk in control te blijven, zodat data in handen van andere partijen niet een eigen leven kan gaan leiden.”
Eigenlijk zeggen jullie dus dat bepaalde privacyrisico’s onvermijdbaar zijn, als we met z’n allen betere zorg willen?
Corrette: “We kunnen die risico’s inderdaad niet uitsluiten als we de kansen van AI ten volle willen benutten. Maar even terzijde: aan medisch handelen kleven altijd risico’s, al zullen we ons altijd inspannen om ze zoveel mogelijk in te perken.”
Kak Khee: “Je kunt het een beetje vergelijken met het testen van een nieuw medicijn: daarin is de regelgeving ook heel streng: er wordt alles aan gedaan om de risico’s voor de patiënt zo klein mogelijk te maken. Met AI is dit niet anders, alleen omdat dit nieuw is, moeten we de regelgeving nog aanpassen. Ik denk wel dat het altijd de taak is van de arts of onderzoeker om de patiënt te beschermen. Als ik mijn patiënt een nieuw medicijn laat uitproberen, doe ik dit bijvoorbeeld alleen als ik dat veilig acht, en als ik geloof dat het iets bijdraagt aan de genezing of kwaliteit van leven. In het geval van AI, verzamel ik alleen informatie van patiënten als ik denk dat dit veilig is, én wanneer dit echt nodig is. Een ander belangrijk ethisch punt binnen AI is immers dat je blijft kijken of het gebruik ervan ook daadwerkelijk voldoende vooruitgang oplevert in de behandeling. Of dit zo is, weten we nu nog niet, dat is iets wat we onderzoeken. Het zou bijvoorbeeld kunnen dat we na het Vasculaid-onderzoek leren dat bepaalde data geen meerwaarde opleveren en in de toekomst niet meer verzameld hoeven te worden.”
Corrette: “De voordelen van het gebruik van een nieuw AI-systeem moeten opwegen tegen de nadelen. Je moet dus als onderzoeker kritisch blijven: als het verzamelen van patiëntengegevens leidt tot meer medisch handelen, meer metingen en kosten en meer privacyrisico’s terwijl je er niet – of slechts een klein beetje – beter van wordt, moet je dit misschien achterwege laten. In algemene zin is AI zeker van toegevoegde waarde, maar net als bij elk nieuw geneesmiddel, moet dat bij elke nieuwe toepassing opnieuw worden getoetst.”
Tekst: Marion van Es
Beeld: Kak Khee Yeung | © Fotografie Dyzlo Film
Dit artikel verscheen eerder in het Hartbrug Magazine