Artificial Intelligence (AI) ontwikkelt zich dynamisch en is de toekomst van de geneeskunde. Er is echter nog steeds een gebrek aan regelgeving op internationaal niveau - met name een juridische definitie - die kunstmatige intelligentie definieert en daarom duidelijkheid over de kwestie van aansprakelijkheid voor mogelijke medische fouten die optreden bij het gebruik van door AI ondersteunde apparatuur.
Het potentieel van AI in de geneeskunde
Diagnostische tools ondersteund door kunstmatige intelligentie verhogen de kwaliteit en efficiëntie van de gezondheidszorg. Ze worden voornamelijk gebruikt bij het interviewen van de patiënt, het analyseren van testresultaten, het bewaken van de toestand van de behandelde persoon en het uitvoeren van vele andere activiteiten door een arts om een passende diagnose te stellen. Hun goede werking hangt voornamelijk af van een grote hoeveelheid gevarieerde informatie, waaronder specifieke gegevens over patiënten.
- Ongecontroleerde toegang tot dergelijke informatie kan leiden tot schade aan het individuele belang van het individu. Centra die particuliere gezondheidszorg aanbieden en die hun bronnen voor patiënteninformatie niet willen delen - Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy, staan sceptisch tegenover de accumulatie van gegevens.
In de geneeskunde zijn al verschillende AI-systemen in gebruik. Een daarvan is DXplain - een programma dat, na analyse van de reeks symptomen die bij een patiënt is waargenomen, een lijst met mogelijke diagnoses presenteert. De uiteindelijke keuze wordt echter aan de arts overgelaten. Ook de Germwatcher is het waard om op te letten. Het is een laboratoriuminformatiesysteem dat de mogelijkheid van infecties bij gehospitaliseerde personen detecteert, volgt en onderzoekt.
De introductie van robotchirurgische systemen was zonder meer een doorbraak. Door het DaVinci-systeem met robotarmen, nauwkeurige bewegingen en magnetisch zicht te gebruiken, kunnen clinici operaties uitvoeren die niet mogelijk zouden zijn met standaardprocedures.
Behoefte aan regelgeving
Het Europees Parlement geeft samen met het Europees Economisch en Sociaal Comité aan dat er een precieze definitie van kunstmatige intelligentie moet worden uitgewerkt. Het moet voldoen aan de eisen van hoge strengheid en dus geen extra onduidelijkheden, twijfels of juridische mazen in de wet introduceren, en technologisch "open" genoeg zijn om de potentiële ontwikkeling van AI-technologie in de toekomst niet te belemmeren.
Een definitie van juridische AI zou ons in staat stellen om te bepalen wie verantwoordelijk is voor eventuele medische fouten die optreden bij het gebruik van AI-ondersteunde machines.
- Volgens de bepalingen van het burgerlijk recht, om de aansprakelijkheid aan een bepaalde entiteit te kunnen toewijzen, moet er onder meer zijn: een van de uitgangspunten, een adequaat oorzakelijk verband tussen zijn handelen of nalaten en de gebeurtenis waardoor de schade is ontstaan. Het lijkt erg moeilijk om een entiteit burgerlijke aansprakelijkheid toe te kennen voor een activiteit die het gevolg is van kunstmatige intelligentie. De arts kan de bedoelingen van het autonome individu niet voorspellen. Dit is een probleem dat vooral wordt opgemerkt door tegenstanders van het gebruik van AI in de geneeskunde - Konrad Jagocha, Associate, Kancelaria Prawna Chałas i Wspólnicy.
Het is ook vermeldenswaard dat de ontwikkeling van diagnoses door machines met kunstmatige intelligentie-middelen statistisch gezien effectiever en sneller is dan door artsen. Deskundigen benadrukken echter dat AI in de geneeskunde onder constant menselijk toezicht moet staan vanwege het belang van de effecten die elke verstoring kan hebben. Dit is bijvoorbeeld de geest van de Amerikaanse Food and Drug Administration (FDA) die artsen toestaat om alleen AI-onderzoek met een laag risico uit te voeren.