Intelligenza artificiale e responsabilità

Tempo di lettura: 6 minuti
()

Con la diffusione dei sistemi di IA e la facilità di accesso alle loro tecnologie, è utile ed opportuno discutere di intelligenza artificiale e responsabilità.

Il tema, benchè vada affrontato sia in senso tecnico che giuridico, riguarda la quasi totalità della popolazione: atteso il fatto che l’utilizzo anche solo di uno smartphone determini, quotidianamente e spesso inconsapevolmente, plurimi utilizzi di sistemi basati sull’intelligenza artificiale.

Cosa si intende per Intelligenza Artificiale?

Per comprendere appieno l’argomento in trattazione, occorre innanzitutto chiarire cosa si intenda per Intelligenza Artificiale.

Una prima definizione, ampia, è la seguente: l’intelligenza artificiale è la capacità od il tentativo di un sistema artificiale, di un sistema informatico, di simulare una generica forma di intelligenza.

Nel contesto contemporaneo, per Intelligenza Artificiale si intende la capacità di un sistema di simulare capacità umane ed i processi di intelligenza umana, quali il ragionamento, l’apprendimento, la pianificazione e la creatività.

Il funzionamento dell’Intelligenza Artificiale si basa su componenti hardware e software, specializzati per la scrittura e l’addestramento degli algoritmi di apprendimento automatico.

L’apprendimento automatico

Una delle caratteristiche più rilevanti dell’Intelligenza Artificiale è l’apprendimento automatico (in inglese, machine learning.

Si tratta dell’abilità di apprendere dai dati elaborati, in maniera autonoma e senza istruzioni esplicite.

Ciò è possibile grazie all’utilizzo di metodi statistici, che migliorano il funzionamento di un algoritmo nell’identificare pattern nei dati.

Gli algoritmi di apprendimento automatico operano grazie al riconoscimento di pattern e alla teoria computazionale dell’apprendimento ed a quella della predizione.

L’apprendimento automatico, in sostanza, permette di costruire, tramite il metodo induttivo, un modello basato su dei campioni e di migliorarlo progressivamente grazie all’elaborazione di nuovi dati.

L’etica dell’Intelligenza Artificiale

L’etica dell’intelligenza artificiale è una branca dell’etica che studia le implicazioni economiche, sociali e culturali derivanti dall’utilizzo dell’Intelligenza Artificiale.

In materia, si può fare riferimento alle “Linee Guida Etiche sull’intelligenza artificiale” ideate dal Gruppo di Esperti della Commissione europea.

Nelle Linee Guida sono elencati sette requisiti fondamentali che i sistemi di IA dovrebbero soddisfare per essere considerati affidabili:

  • azione e sorveglianza umane
  • robustezza tecnica e sicurezza
  • riservatezza e governance dei dati
  • trasparenza
  • diversità, non discriminazione ed equità
  • benessere sociale e ambientale
  • responsabilità.

Anche lo Stato del Vaticano ha adottato delle proprie Linee Guida (potete trovarle QUI →), che hanno fissato i principi e le norme per un utilizzo etico, responsabile e controllato dell’Intelligenza Artificiale.

I principi prevedono che i sistemi di IA debbano garantire il rispetto di:

  • dignità umana
  • sicurezza
  • trasparenza
  • eticità.

Le Linee Guida vaticane prevedono anche alcuni divieti nell’applicazione dell’Intelligenza artificiale.

La legge europea sull’Intelligenza Artificiale

La diffusione dei sistemi di Intelligenza Artificiale ed i rischi connessi al loro utilizzo in assenza di regole, ha determinato l’Europa a dotarsi di proprie strumenti normativi.

Con il Regolamento (UE) 2024/1689 sono infatti state stabilite norme armonizzate sull’Intelligenza Artificiale. Le norme entreranno in vigore nel mese di Agosto 2025.

La legge ha definito l’IA come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali“.

Nell’articolato sono stati individuati 4 livelli di rischio in cui vengono classificati i sistemi di IA:

  • inaccettabile
  • elevato
  • limitato
  • minimale.

Sono stati vietati tutti i sistemi di IA considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone.

La legge ha vietato, in particolare, otto pratiche:

  1. manipolazione e inganno dannosi basati sull’IA
  2. sfruttamento dannoso delle vulnerabilità basato sull’IA
  3. punteggio sociale
  4. Valutazione o previsione del rischio di reato individuale
  5. raschiatura non mirata di materiale di Internet o CCTV per creare o espandere database di riconoscimento facciale
  6. riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione
  7. categorizzazione biometrica per dedurre determinate caratteristiche protette
  8. identificazione biometrica remota in tempo reale a fini di contrasto in spazi accessibili al pubblico.
Applicazione della normativa europea

Il Regolamento europeo ha introdotto un meccanismo che permette di distribuire la responsabilità derivante dall’uso dell’Intelligenza Artificiale.

Sono quindi stati individuati:

  • i provider (o fornitori), ossia i soggetti che progettano, sviluppano o producono sistemi di AI per uso diretto o per distribuzione sul mercato europeo, a titolo gratuito o a pagamento
  • i deployer (o distributori), ossia i soggetti che utilizzano o rendono disponibili sotto la propria autorità sistemi di IA agli utenti sul mercato (esclusi i fornitori o gli importatori)
  • gli importatori, ossia i soggetti situati nell’UE che introducono nel mercato interno un sistema di IA che porta il nome o il marchio di un’altra entità situata al di fuori dell’UE.

Se un sistema di IA è immesso sul mercato europeo, si applicano le seguenti regole:

  • le autorità sono responsabili della vigilanza del mercato
  • gli operatori garantiscono la sorveglianza e il monitoraggio umani (c.d. human oversight)
  • i fornitori dispongono di un sistema di monitoraggio post-commercializzazione.

I fornitori e gli operatori segnaleranno anche incidenti gravi e malfunzionamenti.

“Human in the loop” e “human on the Loop

La normativa europea prevede, obbligatoriamente, che i sistemi di Intelligenza Artificiale siano soggetti alla sorveglianza ed al monitoraggio umani (c.d. human oversight).

Nel campo dell’Intelligenza Artificiale, si distinguono due tipologie di sorveglianza e monitoraggio umani:

  • human in the loop
  • human on the loop.

Con l’espressione “human in the loop” (HITL, o umano coinvolto nel ciclo di controllo) si intende un processo in cui l’agente umano è coinvolto direttamente e deve quindi influenzare, modificare o approvare le opzioni decisionali proposte dal sistema. 

Mentre con l’espressione “human on the Loop”  (HOTL, o umano sopra il ciclo di controllo) si intende invece che il supervisore umano non intervenga in ogni decisione, ma monitori le operazioni del sistema in tempo reale e può intervenire quando necessario o richiesto dal sistema.

Poichè i sistemi informatici operano con sempre maggiore autonomia e possono influenzare i processi decisionali con esiti che, in determinati casi, sono legalmente rilevanti, è indispensabile individuare un bilanciamento tra autonomia dell’IA e controllo da parte degli esseri umani.

Una delle principali critiche all’introduzione dei processi di controllo da parte degli esseri umani è il potenziale rallentamento che la necessità dell’apporto umano possa determinare nella prestazioni rese dalla “macchina”.

La “sorveglianza umana”

Il Regolamento europeo (art. 14) ha introdotto anche nei nostri ordinamenti il concetto di “sorveglianza umana” dei sistemi di Intelligenza Artificiale.

I sistemi di IA ad alto rischio devono quindi essere progettati e sviluppati anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso.

La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile.

Le misure di sorveglianza sono commisurate ai rischi, al livello di autonomia e al contesto di utilizzo del sistema di IA ad alto rischio e sono garantite mediante almeno una delle seguenti misure:

  • misure individuate e integrate nel sistema di IA ad alto rischio dal fornitore prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile;
  • misure individuate dal fornitore prima dell’immissione sul mercato o della messa in servizio del sistema di IA ad alto rischio, adatte ad essere attuate dal deployer.

Per i sistemi di IA ad alto rischio le misure sono tali da garantire che il deployer non compia azioni o adotti decisioni sulla base dell’identificazione risultante dal sistema, a meno che tale identificazione non sia stata verificata e confermata separatamente da almeno due persone fisiche dotate della necessaria competenza, formazione e autorità.

Chi è responsabile dell’operato dei sistemi di Intelligenza Artificiale?

Secondo le Linee Guida europee, devono essere adottati meccanismi che garantiscano la responsabilità e l’accountability (ossia la responsabilizzazione) dei sistemi di IA e dei loro risultati.

Il Regolamento ha previsto, con particolare riferimento ai sistemi di IA ad alto rischio, una responsabilità “diffusa“.

L’art. 25 – Responsabilità lungo la catena del valore dell’IA prevede infatti che in caso di sistema di IA ad alto rischio:

  • i distributori
  • gli importatori
  • i terzo comunque coinvolti

siano considerati fornitori (providers); e siano quindi soggetti agli obblighi ed alle responsabilità del fornitore.

I distributori di sistemi di IA ad alto rischio devono adottare idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l’uso che accompagnano i sistemi.

Inoltre, devono affidare la sorveglianza umana a persone fisiche che dispongano della competenza, della formazione, dell’autorità e del sostegno necessari.

Altro requisito previsto dalle norme è la verificabilità della IA, che consente la valutazione degli algoritmi, dei dati e dei processi di progettazione, svolge un ruolo fondamentale in tale contesto, in particolare nelle applicazioni critiche.

Si parla al riguardo di Explainable AI, ossia di Intelligenza Artificiale spiegabile (o accessibile). 

Mentre la IA tradizionale risulta come un sistema che fornisce risultati senza spiegare il processo che li ha generati, l’Explainable AI rende questi processi trasparenti; e quindi comprensibili per gli esseri umani che li debbono controllare.


Per la relativa consulenza od assistenza nell’ambito degli argomenti trattati in questo articolo, potete contattare l’avv. Andrea Spreafico.

Le informazioni contenute in questo articolo sono soggette a termini e condizioni, consultabili QUI →

(tona alla pagina delle notizie)


Ti è stata utile la lettura di questo articolo?

Clicca sulle stelle per dare un voto.

Media del voto / 5. Numero dei voti:

Sii il primo ad esprimere un voto.

Se ti è stata utile la lettura dell'articolo...

Seguici sui nostri social media!

×