Het debat over diagnoses met behulp van kunstmatige intelligentie dook afgelopen zomer opnieuw op tijdens het General Medicine Congress in Nieuw-Zeeland. De Britse medische twittosfeer was bijzonder kritisch voor de presentatie van Babylon Health, het populair online platform voor intelligente anamnese met differentiële diagnoses. Tijdens de presentatie prees de Babylon-vertegenwoordiger de AI-applicatie van zijn bedrijf die beter zou presteren bij het eindexamen (van het Royal College of General Medicine, MRCGP) dan artsen aan het einde van hun opleiding. De presentatie viel niet in goede aarde bij Engelse huisartsen en specialisten die niet te spreken waren over de beweringen van het bedrijf.
I’m surprised Babylon continues to say they outperformed GP trainees in an exam when the evidence for the claim has been publicly dismantled https://t.co/NwJwiYTMo1 https://t.co/Bnuq981RjH
— Enrico Coiera (@EnricoCoiera) July 27, 2019
Digitale symptoomcheckers voor diagnose zonder supervisie -Computerised diagnostic decision support of CDDS- kregen ook heel veel kritiek in The Lancet, meer bepaald in een correspondentie waarin de auteurs pleiten voor onafhankelijke richtlijnen voor applicaties die diagnoses willen stellen zonder advies van een arts.
Dead by Chatbot
Een Engelse specialist, dr. Murphy, deed de test met een 'textbook-case’; het vermoeden van een longembolie bij een risicopatiënt. De patiënt was een 66-jarige roker met symptomen als hemoptyse, ademhaling gerelateerde thoracale pijn, dyspneu en een opgezwollen kuit.
A 66yr old male smoker recently returned from Holiday. Over the past 36 hours he's noticed;
— Dr Murphy (@DrMurphy11) July 27, 2019
- Haemoptysis (coughing up blood)
- Pleuritic Chest pain
- Breathlessness
- A Swollen Calf
The @babylonhealth AI Chatbot Doctor, thinks he needs Antibiotics & Pain Relief. #DeathByChatbot pic.twitter.com/3MCTMqCt89
De chatbot Babylon komt na een hele batterij vragen met de diagnose van pneumonie en raadt de patiënt aan zijn arts te raadplegen. Omdat er geen sprake is van ernstigere diagnoses, startte dr. Murphy met de actie hashtag #DeathByChatbot.
Een probleem van algoritme of van visie op de zorg?
Het is duidelijk dat als de geautomatiseerde differentiële diagnosealgoritmen op basis van een anamnese geen heel ernstige klinische diagnoses aan het licht brengen. Het probleem kan in het algoritme zelf kan zitten, in de kwaliteit / kwantiteit van de gegevens die ingevoerd worden of in het (on)vermogen van het algoritme om de diagnose tijdens het black box-proces te 'af te leiden'. Het is ook duidelijk dat in advertenties voor bepaalde applicaties overdreven wordt wat de capaciteit van het stellen van diagnoses betreft.
Afgezien van de slechte diagnostiek, de ethische en legale implicaties kan men stellen dat in afwachting van een verbetering van de diagnose-algoritmes er alternatieven zijn die het leven van patiënten en artsen vergemakkelijken.
Ik denk onder meer aan Bingli, de Belgische app die patiënten helpt om hun bezoek aan de arts voor te bereiden, thuis, en artsen die al op de hoogte zijn van de symptomen wanneer de patiënt op consultatie komt. Een gedetailleerde anamnese als die in nieuwe app’s zorgt voor een tijdswinst van ongeveer twintig minuten.
In elk geval is een heksenjacht geen gezonde manier om het debat over augmented geneeskunde aan te gaan, en ook niet om artsen ervan te overtuigen dat digitalisatie tal van voordelen biedt.
Pleidooi voor een veiligheidsnet voor augmented artsen
Het Babylon voorbeeld wijst voor de zoveelste keer op de noodzaak om een veiligheidsnet te voorzien, zowel op nationaal als op internationaal vlak, voor ‘augmented’ artsen of artsen die opgeleid zijn in de digitale geneeskunde en problematiek, waaronder de artificiële intelligentie.
Door de basisprincipes van de inferentiële werking van de algoritmen te bestuderen (het volledige proces is onmogelijk te onderzoeken vanwege de Black Box), kunnen toekomstige experts de oorzaak vinden van de moeilijkheden bij klinische gevallen die problemen met het algoritme veroorzaken, maar ook zorginstellingen helpen bij een permanente verbetering van algoritmen in de praktijk. Deze toepassingen zullen niet kunnen verbeteren zonder een collectieve inspanning van de kant van de patiënten- en de medische gemeenschap, maar het belang van die laatste moet duidelijk zijn, net zoals de visie op de zorg die ermee gepaard gaat.
De komende jaren, en mogelijk als een gevolg van de economische problemen in de zorgsector (denk maar aan het failliet van bepaalde ziekenhuizen in Nederland en de US), zullen de verantwoordelijkheden van de competenties in de zorg gedeeld worden door artsen, verpleegkundigen en machines. In dat geval is het noodzakelijk dat zowel de overheid als zorgverstrekkers goed geïnformeerd worden over de modaliteiten van de geneeskunde 3.0 en onder meer over de medische supervisie van diagnoses.
Perspectief: algemene artificiële intelligentie
Het is mogelijk dat de oplossing van een klinisch geval op basis van een anamnese geklasseerd wordt als een ‘complex probleem’ wat de moeilijkheid van bepaalde applicaties om een goede diagnose te stellen zou verklaren. Op die manier behoudt de arts voorlopig de controle over de diagnose.
Maar artificiële intelligentie als tool moet dringend een plaats krijgen in de volksgezondheid, vooral met de intrede van de algemene artificiële intelligentie of strong AI.
Augmented tools zijn vandaag gebaseerd op 'zwakke' artificiële intelligentie, met andere woorden AI die een specifiek probleem kan oplossen.
De sterke AI kan daarentegen 'redeneren op mensenwijze' en verschillende complexiteiten van een groter probleem aanpakken.
Het zal belangrijk zijn om de nadruk te leggen op patiëntveiligheid, vandaar het belang van een kader dat zowel de ontwikkeling als de internationale regulering van aanvullende zorg kan bevorderen.