Quando mi è stato chiesto di parlare di responsabilità in ambito sanitario e IA mi è subito venuto in mente che se c’è un problema di responsabilità, vuol dire che qualcosa è andato storto, e in ambito sanitario se qualcosa va storto, si è verificato un dramma.
Dramma è un termine che si usa anche per definire un’opera teatrale o cinematografica con un finale triste o negativo, e allora ho pensato a quali sono gli attori di questo dramma o, come dicevano i romani, quali sono le “DRAMATIS PERSONAE” (espressione che oggi è sostituita da “Personaggi ed interpreti” e che vi invito a tenere a mente, perché ci torneremo a breve).
In un dramma sanitario il primo protagonista è il paziente, il deuteragonista (il villain, il cattivo) è il sanitario, medico o infermiere che sia, ma un altro deuteragonista è la struttura pubblica o privata nella quale il sanitario eventualmente opera (diciamo l’Ospedale).
Se parliamo di problemi connessi con l’IA , ci sono altri soggetti, altri interpreti che non sono mere comparse: il produttore/sviluppatore del software, il distributore, l’installatore, l’addestratore, il manutentore-
I soggetti sono dunque paziente, sanitario, struttura ospedaliera, coloro che hanno creato, venduto, installato, allenato il sistema: manca qualcuno?
Forse manca quello che nella fattispecie è il vero villain: la IA.
Ma che cosa (o chi) è la IA? Si potrebbe a questo punto aprire una discussione di filosofia, non solo filosofia del diritto, ma teoretica, etica, ma non sono certo io che lo posso e voglio fare, cercherò per quanto possibile di darne una definizione giuridica.
Traggo tale definizione dal punto 12 del Preambolo al Reg.UE 1689/24, dopo aver detto che il regolamento intende promuovere la diffusione di una IA antropocentrica e affidabile, garantendo un livello elevato di protezione della SALUTE, SICUREZZA E DIRITTI FONDAMENTALI, al punto 12 dice che la caratteristica tipica della IA (quindi la sua definizione) è la CAPACITA’ INFERENZIALE: ottenere previsioni, contenuti, raccomandazioni, decisioni che possano influenzare ambienti fisici e virtuali e la capacità di ricavare modelli e algoritmi da input e da dati. Si parla anche di approcci basati sull’apprendimento automatico che imparano dai dati e approcci basati sulla logica che traggono inferenze dalla conoscenza codificata e dalla rappresentazione simbolica del problema.
Se si toglie la risposta sulla base di “emozioni” non è molto diverso da quello che fa ciascuno di noi quando deve prendere una decisione, o consigliare un amico su una decisione da prendere.
Nel 1950 Alan Turing, che è uno dei padri, se non il padre, dell’informatica escogitò un “esperimento mentale” (cd TEST di Turing) per trovare la differenza fra persona umana e macchina intelligente. L’esperimento era un po’ complesso: ci sono un uomo A e una donna B, un terzo C che non li vede deve con una serie di domande e risposte scritte indovinare che è l’uomo e chi è la donna (con la complicazione che uno dei due è sempre sincero e l’altro può mentire). Ad un certo punto si sostituisce A con una macchina e si procede come prima, se la percentuale di successo di C nell’indovinare che è l’uomo e chi la donna resta uguale indifferentemente dal fatto che A sia un uomo o una macchina, quella macchina ha superato il test non essendo possibile distinguerla da una persona.
In realtà, e lo stesso Turing se ne accorse, il test valuta non se la macchina può sostituire l’umano, ma la capacità della macchina di simulare l’umanità.
Perché oggi se faccio una domanda a Meta o a Chatgpt, le risposte che mi arrivano potrebbero benissimo provenire da un umano e quindi dovrei dire che la parificazione uomo/macchina è già raggiunta. In realtà non è così.
Ciò non toglie che in una Raccomandazione del 2017 del Parlamento Europeo, nell’invitare gli organi eurounitari a regolare la materia della IA si avanzassero varie soluzioni, fra le quali anche, la possibilità del riconoscimento della personalità in capo alla IA.
La cosa suscitò un certo scalpore, e non è stata seguita nel regolamento che rammentavo prima, ma forse bisognerebbe interrogarsi (sempre non filosoficamente ma giuridicamente su cosa (chi) è giuridicamente una “persona”, un soggetto di diritti.
E qui concedetemi di richiamare quel termine “dramatis personae” che ho usato all’inizio, perché la nostra parola “persona” deriva dal latino “persona” che però *significava “maschera teatrale, personaggio” (e quindi ognuno di noi sarebbe una maschera, un avatar di sé stesso). A sua volta i latini avevano ripreso la parola dall’etrusco (è veramente una delle pochissime parole etrusche arrivate fino a noi) dove Phersu è uno strano personaggio con una maschera che appare dipinto in alcune tombe e che partecipava ai riti funebri, a volte rappresentato mentre danza e a volte mentre aizza un cane feroce contro un malcapitato con la testa chiusa in un sacco
La questione è in fondo semplice: il codice civile comincia con un Libro I, titolo I che si chiama “delle persone fisiche” e l’art. 1 dice che la capacità giuridica si acquista con la nascita.
Niente di più e niente di meno: se sei nato, e finché sei vivo, sei una persona fisica, un soggetto di diritti (non è poi così scontato, basti pensare agli schiavi che non erano soggetti, ma oggetto di diritto, e potevano essere comprati e venduti, e nella Roma arcaica il padre poteva vendere i figli).
Non c’è nessun approfondimento in materia di coscienza, di consapevolezza, di capacità, di intelligenza: se appartieni alla specie homo sapiens e sei nato sei una persona.
Altro è la capacità giuridica, la possibilità di essere soggetto di diritti e altro la capacità di agire (art.2) in base alla quale puoi esercitare autonomamente quei diritti e per la quale devi essere almeno maggiorenne.
Si può essere persona dunque anche se non si ha consapevolezza (penso al neonato, o al malato terminale, o al cerebroleso in stato vegetativo) o intelligenza (anche perché altrimenti si potrebbe porre qualche problemino rispetto magari a qualche animale, ai primati che di sicuro una certa intelligenza ce l’hanno (Sultan, Kanzi) o ai delfini che se gli dipingi dei pallini rossi sul muso stanno a lungo a guardarsi cercando di capire cosa sono, senza andare a cercare forme “aliene” e diverse di intelligenza e consapevolezza come la consapevolezza e intelligenza collettiva di un formicaio, e si potrebbero porre, se non subito, a breve gli stessi problemi per la IA.
Quindi, giuridicamente, solo l’homo sapiens è persona e soggetto di diritti, ma ciò non vuol dire che quanto proposto dal Parlamento europeo fosse del tutto sbagliato.
Perché il diritto in genere, e il nostro codice in particolare, riconosce una diversa forma di personalità, la personalità giuridica (art.11 e segg).
Quelle formazioni (enti pubblici, enti locali, società di ogni tipo, fondazioni, associazioni, anche sindacati) che si formano con la riunione di più soggetti ma che vengono riconosciute come qualcosa di ben distinto dai singoli componenti o affiliati.
Personalmente non vedrei alcun ostacolo al riconoscimento della personalità giuridica ad un sistema di IA, sotto determinate condizioni e magari facendo in modo che la persona giuridica IA abbia un patrimonio di riferimento (ad es. formato con una percentuale dei diritti di utilizzo) ed abbia una assicurazione.
De jure condendo, come si dice perché oggi non è ancora così, e i dati normativi sono di segno contrario.
Il regolamento UE di cui parlavo in precedenza non ha raccolto il “suggerimento” del Parlamento europeo: per vero dire non regola tutto il possibile sulla IA (per es. non affronta il problema della responsabilità, ma assume un atteggiamento di “protezione”, classificando gli utilizzi possibili della IA sulla base del RISCHIO collegato.
Ci sono attività per le quali l’uso della IA è vietato tout court (ad es. la profilatura ai fini della ammissione a cure) attività ad alto rischio, a rischio medio, a rischio basso.
Sono ad alto rischio, tra l’altro, la identificazione biometrica remota, il riconoscimento delle emozioni, la gestione di infrastrutture critiche, l’istruzione e formazione professionale (accesso e valutazione) la assunzione al lavoro, l’accesso a prestazioni pubbliche, la materia migrazione, l’amministrazione della giustizia e sono ad alto rischio in genere gli utilizzi in ambito medico, perché la norma rimanda (art, 6 c. 1) a tutti i PRODOTTI O PARTI DI PRODOTTI disciplinati dalle normativa di cui all’All.1 e nell’all.1 si citano i Reg. 2017/745-746 sui dispositivi medici e medico- diagnostici.
In definitiva per il reg.UE un sistema di IA è un prodotto (un oggetto quindi) al pari di ogni altro dispositivo medico o medico diagnostico.
L’utilizzo è ammesso, ma trattandosi di “alto rischio” con estrema cautela.
Il legislatore italiano ha fatto (o meglio sta facendo, perché l’iter di approvazione della legge è in corso, il ddl 1146 è stato approvato dal Senato e ora si aspetta la Camera) dedica un articolo (art.7) all’utilizzo della IA in ambito sanitario esordendo col dire che tale utilizzo contribuisce al miglioramento del sistema sanitario, della prevenzione, della diagnosi, della cura. Dopodiché vieta espressamente la selezione e condizionamento secondo criteri discriminatori (le profilature già proibite dal Regolamento UE) .Il comma 5 dà come visto la definizione del sistema di IA come SUPPORTO nei processi di prevenzione, diagnosi, cura e scelta terapeutica, LASCIANDO IMPREGIUDICATA LA DECISIONE, che è sempre rimessa agli esercenti la professione medica.
E quindi si ribadisce che, dal punto di vista del diritto, nazionale e sovranazionale, un sistema di IA è un oggetto, un prodotto, un dispositivo medico (quando applicato in ambito sanitario) né più né meno di quello che è una TAC, un ecografo, ma potrei dire anche una siringa o un termometro.
Se è un prodotto, è applicabile in primo luogo il “Codice del Consumo” cioè il dlgs 206/05 il cui art.2 riconosce si “consumatori” una serie di diritti fondamentali, fra cui il diritto alla salute. L’art.103 definisce il concetto di “prodotto sicuro”, l’art.104 impone al produttore (e indirettamente al distributore) di immettere sul mercato solo prodotti sicuri, e di dotarsi di sistemi di controllo informazione richiamo. L’art.114 afferma la responsabilità del produttore per i danni derivanti da difetti del prodotto, e se non è individuato il produttore la responsabilità ricade sul fornitore che omette di segnalare il nome del produttore. L’art.120 dispone che il danneggiato deve provare il difetto, il danno, il nesso causale, al produttore sta provare che ricorrono cause di esclusione (ad es. il prodotto è stato messo in circolazione quando le conoscenze scientifiche non erano tali da mostrare il difetto.
Come vedete, è già qualcosa, ma resta la difficoltà per il danneggiato di provare l’esistenza del difetto, e in un sistema di IA potrebbe trattarsi di una probatio diabolica.
Questo in generale, ma in campo medico c’è la specifica disciplina rappresentata dalla Legge Gelli (legge 24/17).
Sono disciplinate sia la responsabilità civile, che quella penale derivanti dall’errore medico.
Dal punto di vista civilistico si distingue fra responsabilità della struttura, che è responsabilità contrattuale, e del singolo operatore, che è extracontrattuale. Non è una differenza da poco: a parte la prescrizione, che è di 10 anni in un caso e 5 nell’altro, c’è diversità sostanziale in punto di onere della prova: nel caso di resp.contrattuale al paziente danneggiato basta provare che c’è stato un danno e il nesso causale che fa discendere quel danno dall’intervento; non deve essere provata la COLPA. Viceversa nei confronti del singolo operatore, dipendente da una struttura, dovrà essere provata anche la sua colpa, il che rende ben più difficile l’azione e f sì che tendenzialmente, se sono un paziente che si ritiene danneggiato, farò causa alla struttura e non al singolo medico, perché più facilmente vincerò.
LA struttura potrà rivalersi contro il singolo operatore, ma solo in caso di colpa grave e con un tetto al rimborso rappresentato dal triplo dello stipendio.
In penale, la legge Gelli ha introdotto l’art.590 sexies del cod.penale per il quale se le lesioni o la morte derivano da esercizio di professione sanitaria, se il danno è dipeso da IMPERIZIA non c’è punibilità quando sono state seguire le linee guida ufficiali o in mancanza le “buone pratiche” riconosciute, purché le linee o le raccomandazioni fossero adeguate al caso specifico.
Per capirsi, in diritto la colpa può consistere in imperizia (non ho saputo fare quello che dovevo fare, non ho saputo riconoscere quello che dovevo riconoscere) negligenza (sono stato trascurato, non sono intervenuto quando dovevo intervenire) imprudenza (ho assunto iniziative azzardate)-
Dice il legislatore che non c’è imperizia se l’operatore si è attenuto a linee guida di comportamento/trattamento riconosciute, o a “buone pratiche” consolidate (ma ci sarebbe imperizia nell’aver seguito per la cura di una polmonite le buone pratiche prescritte per il trattamento delle verruche, ammesso che ci siano.
Come si incastra l’uso della IA con tutto ciò.
Se, come detto prima, per il legislatore nazionale ed europeo la IA è un supporto, uno strumento, un contributo ferma restando la valutazione finale dell’operatore sembrerebbe chiaro che l’uso di un tale dispositivo medico o medico diagnostico non è di per sé una esimente, o una causa di esclusione della colpa. Né ad oggi mi sembra che ci siano raccomandazioni, linee guida, buone pratiche che dicano di affidarsi in toto alla IA.
Quindi se ne dovrebbe concludere che il sanitario che si affida alla IA (fermo restando che le capacità diagnostiche della IA sembrano essere assai elevate) lo fa. Anche. A proprio rischio e pericolo.
Peraltro devo dire che se fossi chiamato a difendere, in penale o in civile, un sanitario che affidandosi alle indicazioni della IA ha commesso un errore qualcosa da dire ce lo avrei.
La decisione finale è del sanitario che sa di star utilizzando un “dispositivo” considerato a rischio, ma su quali basi può discostarsi da quello che IA gli dice?
In fondo si tratta di contrapporre la propria esperienza (scienza e coscienza) personale, acquisita studiando testi e con la pratica quotidiana ad una analisi che, per definizione, deriva dall’esame di un numero altissimo di casi, sicuramente di molto superiore a quello che un sanitario, anche di lunga carriera- e figuriamoci un neospecializzato – ha potuto vedere.
E’ ben difficile discostarsi. Tanto più che non credo che finora il personale medico e sanitario in genere sia stato formato nella nuova “abilità” del controllo dei responsi IA (penso che presto nelle scuole di specializzazione dovranno essere inseriti corsi appositi)
In fondo si tratta di contrapporre una propria esperienza limitata ad una esperienza che viene presentata come più ampia e sicuramente lo è. Personalmente penso che solo quando il responso IA sia macroscopicamente errato si possa parlare di imperizia del sanitario che lo ha seguito. Certo che la decisione -seguire o non seguire- dovrà essere motivata, e che almeno un momento di riflessione dovrà risultare, a cominciare dal controllo della efficienza e manutenzione del sistema.
Penso anche che l’optimum (ma non so se sia possibile in termini di tempi di intervento e di costi) sarebbe se il sanitario potesse disporre di due diversi sistemi di IA, due programmi diversi, provenienti da fornitori diversi ai quali fornire gli stessi dati per poi confrontare i risultati.
* Relazione tenuta al Convegno “Insieme costruiamo salute: Intelligenza artificiale: una partnership per il futuro della sanità” in occasione della Giornata Nazionale dell’Infermiere 2025. Organizzato dall’Ordine Prof.Infermieri Firenze-Pistoia.
A cura di Gianno Cortigiani, Avvocato in Firenze