AI vindt heel geleidelijk zijn weg in de (huis)artsenwereld, maar er is nog een lange weg te gaan qua performantie, wetenschappelijke onderbouw en wetgeving, en het ethische debat staat nog in zijn kinderschoenen. Dat bleek uit een (huis)artsendebat in Dilbeek afgelopen zaterdag.
Het druk bijgewoonde debat over AI was georganiseerd in Westrand Dilbeek door drie plaatselijke huisartsenkringen Zennevallei, Pajottenland en Noordrand. Daar lieten vijf experts eerst hun licht schijnen over het thema om vervolgens met elkaar in debat te gaan.
Prof. dr. ir. Guy Nagels, afdelingshoofd neurologie UZ Brussel, vertrok in zijn presentatie van drie vragen:
- kan AI ons controleren?
- wat kan er nu al met AI in de gezondheidszorg?
- kan AI de samenwerking tussen collega's bevorderen?
Zijn voorlopig voorlopig besluit, weliswaar onder voorbehoud omdat een en ander nog beïnvloed kan worden door zorgverleners zelf: AI zal ons niet controleren, maar we kunnen wel gecontroleerd worden met behulp van AI; in de gezondheidszorg zal AI precies zijn nut bewijzen in een samenwerking met menselijke expert-zorgverleners. Tot slot: we moeten AI zien en inzetten als een instrument om samenwerking te bevorderen.
Zoals elk nieuw (technologisch) hulpmiddel kan dit soort 'intelligentie' ten goede of ten kwade gebruikt worden en hangt veel af van de manier en de context waarin het wordt ingezet. Guy Nagels drukte dat in het paneldebat als volgt uit: “Ik neem een dubbele houding aan tegenover AI. Als onderzoeker ben ik enorm voor AI en de training ervan, maar in de consultatiezaal gebruik ik het zeer omzichtig. Waarmee hij zonneklaar het spanningsveld aantoonde tussen de fantastische potentie van AI maar daarnaast de reality-check die vaak nog te wensen overlaat.
Hype
Ook pr. dr. Yves Moreau (electrical engineering bio-informaticus KU Leuven) liet enkele reflecties uit zijn vakgebied optekenen waarbij hij de huidige AI-hype in perspectief plaatste. Iedereen herinnert zich eenzelfde hype toen AI van IBM in de vorm van de supercomputer Watson (gelanceerd in 2007) een industriële revolutie zou ontketenen en fikse groei voor IBM zou genereren. Niets van die twee voorspellingen kwam uit. Intussen stelde IBM zijn visie over Watson flink naar beneden bij en klinkt het een pak bescheidener.
Enige hilariteit oogstte de professor door de proef op de som te nemen met chatGPT en te vragen wat het belangrijkste verschil is tussen kippeneieren en koeieneieren. Waarop een doodserieus en wetenschappelijk aandoend, maar totaal uit de lucht gegrepen antwoord -netjes opgesomd in vier punten- uit de AI-machine rolde. Een staaltje van hallucineren in het kwadraat. Zo vernam de geïnteresseerde leek dat kippeneieren qua grootte ‘over het algemeen veel kleiner zijn dan koeieneieren. Een kippenei weegt meestal tussen de 50 en 60 gram, terwijl een koeienei aanzienlijk groter kan zijn, soms wel tot 100 gram of meer.’
Het dient gezegd dat chatGPT (3.5) intussen toch tot het ‘besef’ is gekomen dat koeieneieren niet bestaan en vandaag dus wel een steekhoudend antwoord geeft op deze vraag. Anderzijds konden we zelf proefondervindelijk vaststellen dat het nog problemen kent met het bestaan van... ‘haneneieren'. In dat opzicht is er qua betrouwbaarheid zo goed als niets veranderd tegenover vorig jaar toen dr. Theo Compernolle ChatGPT wetenschappelijk op de proef stelde.
Vervreemding, illusie van zekerheid
Vanuit de mond van moraalwetenschapper Prof. dr. Sigrid Sterckx (gezondheidsethiek UGent) kwam eveneens de waarschuwing dat vandaag AI te veel gehypet wordt. Waarbij ze verwees naar het voorbeeld van diagnosticeren via computers: daarover verscheen al een eerste artikel in… 1959. Recentere voorbeelden in twee domeinen (predictiemodel sepsis en AI op intensive care) tonen povere resultaten aan. AI brengt verder twee onbedoelde effecten teweeg: vervreemding en de illusie van zekerheid.
De juridische aspecten van AI werden belicht door Stefaan Callens, advocaat in Brussel en deeltijds gewoon hoogleraar KU Leuven. Hij is expert inzake AI-wetgeving op Europees vlak. Een knelpunt is onder meer de niet-transparante werking van AI. In een ontwerp-richtlijn zou men willen inbouwen dat de rechter de aanbieder of gebruiker verplicht om bewijsmateriaal over een AI-systeem met hoog risico, openbaar te maken. Bij schadebetwistingen zou men onder meer uitgaan van het principe van vermoeden van schuld door niet-nakoming van de zorgvuldigheidsplicht.
Namens Domus Medica hoopte voorzitter dr. Jeroen van den Brandt vooral dat we van het huidige eerder ‘risicozwangere’ AI-model meer naar AI als helper kunnen evolueren. In functie daarvan moeten we EMD-pakketten her-denken net zoals transmuraal werken. Dat houdt ook in dat we ons zorgmodel in het algemeen, samen met de financiering en de ICT-ondersteuning, op een nieuwe leest schoeien.
Weinig zicht op concrete toepassingen
Enkele vragen peilden bij de toehoorders in de zaal naar hun mening over een aantal AI-stellingen. De antwoorden legden geregeld een diepe kloof bloot met de gebruiker. Zo heeft slechts 3,61% voldoende zicht op concrete AI-toepassingen die vandaag in de praktijk al gebruikt kunnen worden, als die er uberhaupt al zijn voor de huisartsgeneeskunde.
Of AI de zorg minder menselijk zal maken? Daarover zijn de meningen verdeeld. Een derde is het ermee eens, een kwart mee oneens en nog eens een derde stelt zich neutraal op. Dat er nog flink wat weg af te leggen valt inzake AI-perceptie, bewijst tot slot het antwoord van de zaal op deze stelling: “Ik heb vertrouwen in wat er onder de motorkap van AI gebeurt.” De helft was het daarmee helemaal oneens, drie op de tien neutraal slechts staat er neutraal tegenover.
De interessantste stelling werd voor het einde opgespaard: “Ik zie mezelf binnen dit en vijf jaar AI in mijn praktijk gebruiken”. De meesten beseffen dat AI tamelijk snel zijn intrede zal doen in de huisartsenpraktijk, wat blijkt uit het feit dat ruim twee derde (69%) het er (helemaal) mee eens is.
> Is ChatGPT te betrouwen voor medisch advies? (Theo Compernolle)
Laatste reacties
Franck Vanneste
14 maart 2024Ik ben misschien een leek in het vak wat de toepassingen zijn van een dergelijk model bij de interpretatie van medische bevindingen. Ik vind wel dat er onvoldoende onderscheid gemaakt wordt tussen AI en expertsystemen waarbij mijn persoonlijke ervaringen bij resultaatvalidatie toch wel positief zijn, maar waarbij men toch van de vaststelling moet vertrekken dat men met een zwarte doos te maken heeft voor bepaalde zaken. Valideren /certificeren blijft de boodschap zodat men in zekere zin toch een zicht heeft op de beperkingen en de mogelijkheden. Men moet hierbij niet vergeten dat men als actor in de gezondheidszorg wettelijk verbonden is aan resultaatverbintenis en middelenverbintenis in de jurisprudentie.
F. Vanneste
Klinisch bioloog.
Marc DE MEULEMEESTER
12 maart 2024Als je zelf niet meer nadenkt en enkel blind vertrouwt op de GPS in je Otto kan het gebeuren dat je eindigt in den Tunnel onder het Kanaal !
Marc DE MEULEMEESTER
11 maart 2024Zoals bij de flikken en de kerk dienaars is er geen ingebouwd controlemechanisme om machtsmisbruik uit te sluiten !