De AI Act stelt nieuwe eisen aan het gebruik van artificiële intelligentie in ziekenhuizen. Tussen het aanpassen van processen, wetenschappelijke validatie en training moet de sector zich voorbereiden op deze nieuwe regelgevende uitdagingen.
De adoptie van artificiële intelligentie (AI) in de gezondheidszorg wordt beïnvloed door een aantal factoren, niet in de laatste plaats het vertrouwen van zorgprofessionals in deze nieuwe technologieën. Dit vertrouwen hangt deels af van de vaststelling van duidelijke regelgeving, zoals wordt geïllustreerd door de recente Belgische barometer van AI-adoptie in de spoedeisende hulp, die het belang van strikte regelgeving voor AI in de gezondheidszorg benadrukt.
De inwerkingtreding van de nieuwe Europese AI-regelgeving, bekend als de Artificial Intelligence Act (AI Act), is een belangrijke stap in de richting van betrouwbare, mensgerichte AI. Deze tekst, die op 12 juli 2024 is gepubliceerd in het Publicatieblad van de Europese Unie, heeft hoge verwachtingen gewekt wat betreft zijn vermogen om een kader te bieden voor AI-praktijken in de gezondheidszorg. De implementatie in het veld bevindt zich echter nog in de beginfase en in veel wetenschappelijke artikelen worden al vraagtekens gezet bij de praktische implicaties.
De ziekenhuissector maakt zich vooral zorgen over de noodzaak om de interne processen aan te passen aan de nieuwe eisen van de AI-wet. Tegen deze achtergrond hebben vier onderzoekers van de Universiteit van Bergen zich gebogen over de eerste vragen van professionals in de gezondheidszorg over de nieuwe regelgeving (Zie het volledige artikel hieronder). Er zijn al een aantal belangrijke kwesties voor de ziekenhuissector naar voren gebracht, die aanleiding geven tot verdere reflectie over de moeilijkheden die zich kunnen voordoen.
Risicoclassificatie aangepast aan gezondheidskwesties?
De Europese regelgeving voor AI introduceert een classificatie van AI-toepassingen op basis van het risico op ongewenste voorvallen en de ernst daarvan. Deze categorieën variëren van een minimaal risiconiveau tot een onaanvaardbaar niveau.
Applicaties die in de categorie onaanvaardbaar vallen, zijn daarom verboden, terwijl applicaties in de categorie met een hoog risico aan een aantal voorwaarden moeten voldoen om aan de Europese AI-regelgeving te voldoen. Deze vereisten omvatten risicobeheer (artikel 9), adequaat gegevensbeheer (artikel 10), technische documentatie (artikel 11), incidentmonitoring (artikel 12), transparantie en gebruiksaanwijzingen (artikel 13), menselijke controle (waarborg) (artikel 14) en passende nauwkeurigheid, robuustheid en cyberbeveiliging (artikel 15).
Reflectie: ziekenhuizen moeten zich daarom nu al voorbereiden op de noodzaak om nieuwe AI-toepassingen te categoriseren. Een gestandaardiseerd classificatieproces, vergezeld van passende training in de toepassing ervan, zou een snelle beoordeling van de risico's en de na te komen verplichtingen vergemakkelijken. Duidelijke richtlijnen, zoals gevalideerde checklists, zouden een effectieve manier zijn om te beoordelen of nieuwe AI-toepassingen aan de regelgeving voldoen.
De uitdaging van wetenschappelijke validatie...
De kwestie van de wetenschappelijke validiteit staat uiteraard centraal, zoals bepaald in artikel 15 van de AI-wet. Er wordt echter nog steeds gediscussieerd over validatiemethoden en kwaliteitsindicatoren. De nieuwe Europese regelgeving stelt voor om een nationale 'sandbox' te creëren om algoritmes te testen in een beveiligde virtuele omgeving, maar dit vereist natuurlijk een praktische implementatie die toegankelijk is voor professionals in de gezondheidszorg. Bovendien blijft het testen van AI in reële omstandigheden essentieel. Deze overgang van de theoretische fase naar de praktische toepassing blijkt vaak een delicaat en vervelend proces te zijn, waardoor de oplossing vaak wordt opgegeven.
Reflectie: Het is essentieel om duidelijke basismethodologieën en erkende validiteits- en veiligheidsindicatoren te hebben, evenals opleiding voor belanghebbenden, om de validiteit te beoordelen van AI-toepassingen die in de ziekenhuisomgeving worden geïmplementeerd.
De centrale rol van de menselijke factor!
Het implementeren van betrouwbare AI hangt evenveel af van de technische aspecten als van de menselijke factor. De AI-wet schrijft menselijke controle van toepassingen voor (artikel 14), maar roept vragen op over het vaardigheidsniveau dat nodig is om dit adequaat te bereiken. De AI-wet gaat zelfs verder in zijn redenering en suggereert in artikel 4 de noodzaak van een passend niveau van AI-geletterdheid voor gebruikers van deze toepassingen.
Reflectie: Om te voldoen aan de eisen van menselijke controle en de noodzaak van een adequaat niveau van AI-geletterdheid voor ziekenhuisgebruikers, lijkt het cruciaal om een optimaal kader te ontwerpen voor de lancering van AI-toepassingen in de ziekenhuisomgeving.
De delicate kwestie van operationalisering in ziekenhuizen
De Europese AI-verordening is een belangrijke stap voorwaarts in de regulering van AI en biedt een veelbelovend kader voor de ontwikkeling van betrouwbare AI in de gezondheidszorg. De operationalisering ervan in ziekenhuizen vereist echter zorgvuldige reflectie en specifieke aanpassingen. Bovendien ontheft de AI-wet op geen enkele manier de noodzaak om te voldoen aan de regelgeving voor medische hulpmiddelen of gegevensbescherming, of aan de specifieke kenmerken met betrekking tot generatieve AI.
In een tijd waarin AI-tools, zoals ChatGPT, een steeds belangrijkere rol spelen in klinisch onderzoek en zelfs klinische activiteiten, is er dringend behoefte aan het stimuleren van het creëren van gestandaardiseerde processen om de operationalisering van AI-regelgeving in de ziekenhuisomgeving mogelijk te maken. Eén vraag lijkt te blijven hangen in het licht van de komst van de AI-wet in de gezondheidszorg: zijn we er echt klaar voor?