Artikel door Cécile van der Heijden, Axon Lawyers.
Tussen patiëntveiligheid en algoritmische integriteit. De AI Act in klinisch onderzoek onder de MDR en IVDR

Artikel door Cécile van der Heijden; verschenen op AI-Forum. Klinisch onderzoek is essentieel voor het beschikbaar komen van nieuwe zorgvormen, zowel op productgebied (zowel medische hulpmiddelen als geneesmiddelen) als voor adoptie van nieuwe therapieën. AI speelt daarin een steeds belangrijkere rol in de vorm van bijvoorbeeld patiëntstratificatie (het indelen van patiënten in subgroepen op basis van relevante kenmerken) of als onderdeel van een medisch hulpmiddel dat onderzocht wordt in een studie.
Klinisch onderzoek draait traditioneel om veiligheid en prestaties van medische hulpmiddelen en geneesmiddelen. De AI Act (Verordening (EU) 2024/1689) ("AI Act") kijkt echter vanuit een totaal ander perspectief: algoritmes, bias en technische robuustheid. Waar de MDR en IVDR proefpersonen en de veiligheid en prestatie van het medisch hulpmiddel centraal stellen, richt de AI Act zich op datakwaliteit en modelvalidatie. Zodra een AI-systeem deel uitmaakt van een medisch hulpmiddel dat onderwerp van een klinisch onderzoek is of in klinisch onderzoek wordt ingezet, botsen die werelden.
In het licht van de AI Act ontstaan nieuwe vraagstukken voor de sponsor van het klinisch onderzoek, ongeacht of dit de (aankomend) fabrikant van een medisch hulpmiddel is, de (toekomstig) vergunninghouder van het genees-middel of de onderzoeker die zelf optreedt als sponsor (veelal in post-market onderzoek). Deze vraagstukken spelen over de volledige reikwijdte van productontwikkeling tot markttoegang. In dit artikel zullen enkele relevante punten worden besproken die spelen rond de integratie van AI in klinisch onderzoek onder de Medische Hulp-middelen Verordening (“MDR”) (Verordening (EU) 2017/745) en In-vitro Diagnostica Verordening (“IVDR”) (Verordening (EU) 2017/746). Vanwege het feit dat medische hulpmiddelen in vrijwel alle gevallen kwalificeren als hoog-risico AI systeem is het vooral interessant om in te gaan op hoog-risico AI-systemen.