Questa mattina, in Good Morning Kiss Kiss, abbiamo parlato di tecnologia e Intelligenza Artificiale. Per chiarire quali sono le conseguenze dei danni arrecati da questi sistemi, è intervenuto l’esperto di tech Alessandro Longo.
Buongiorno Alessandro! Quali sono le ultime proposte dell’Europa riguardo le responsabilità legate ai danni fatti dall’Intelligenza Artificiale?
«Buongiorno a voi! È una proposta molto importante, perché inverte l’onere della prova. Il produttore deve dimostrare di aver fatto di tutto perché quel danno non avvenisse. In particolare, deve dimostrare tante cose per tutti quei sistemi detti ad alto rischio.»
Facciamo qualche esempio, sono cose che utilizziamo tutti i giorni, no?
«E che utilizzeremo sempre di più. Con l’Intelligenza Artificiale si possono fare diagnosi, suggerire terapie, selezionare il personale o suggerire dei licenziamenti. Sono decisioni importantissime che vengono sempre più affidate a questo tipo di sistemi.»
Se mi venisse sbagliata una diagnosi, con chi me la dovrei prendere?
«La Commissione Europea dice che l’azienda che utilizza questi prodotti è obbligata a fare alcune cose per esonerarsi da responsabilità. Una di queste è la supervisione umana per operazioni o decisioni ad alto rischio, per mettere le mani avanti, diciamo. Per attività non ad alto rischio, come ad esempio il drone che rompe qualcosa, se si individua una correlazione di causa ed effetto tra i danni e l’Intelligenza Artificiale, allora il produttore dovrà provvedere a risarcire i danni. La Commissione vuole chiarire in modo deciso la responsabilità del produttore o dell’azienda che utilizza il software.»
Decadrebbero anche i famosi disclaimer che troviamo su alcuni prodotti, cioè, nel momento in cui si inizia a utilizzarli ci si prende anche la responsabilità?
«Non basta la trasparenza. Se tutti fossero soltanto trasparenti, noi saremmo obbligati ad accettare tutto. Anche gli errori di chi produce vanno pagati.»
Quindi per un problema tecnico della macchina risponde il costruttore?
«Sì.»
Come si dimostra che un’Intelligenza Artificiale è responsabile di un danno? Non è facile.
«Non è facile, però la Commissione dà delle prime linnee guida. L’azienda deve presentare dei rapporti sula cyber security e dimostrare che ha seguito le procedure passo passo. Ci sono delle regole.»
Grazie Alessandro!
«Ciao, Kiss Kiss a tutti!»