ChatGPT, il rischio di discriminazione e l’intervento del diritto

Condividi questo articolo

L’evoluzione di questo linguaggio fa emergere aspetti giuridici ed etici sui possibili pericoli. Ora tocca al legislatore mettere dei punti fermi per garantire il rispetto dei diritti fondamentali, lasciando al contempo spazio a tutto il potenziale di questa tecnologia

Pubblicato il 23 Feb 2023

Anna Cataleta

Senior Partner P4I – Partners4Innovation

Giacomo Borgognone

Legal Consultant P4I - Partners4Innovation

ChatGPT è il noto modello di linguaggio realizzato da OpenAI, basato su intelligenza artificiale e machine learning, che può essere utilizzato per generare testo e rispondere a domande e che è in grado di comprendere il contesto di riferimento.

Indice degli argomenti

ChatGPT, rischio di discriminazione e l’intervento del diritto

Le sue caratteristiche fanno sì che lo strumento possa essere impiegato in diversi ambiti e per diversi scopi rendendo il perimetro di utilizzo non facilmente delimitabile.

WHITEPAPER

Cyber minacce e incidenti informatici: attiva la tua resilienza in 10 step

Cybersecurity

Security Risk Management

Inizio modulo

Leggi l'informativa sulla privacy

  • Acconsento alla comunicazione dei dati a terzi appartenenti ai seguenti settori merceologici: servizi (tra cui ICT/digitali), manifatturiero, commercio, pubblica amministrazione. I dati verranno trattati per finalità di marketing tramite modalità automatizzate e tradizionali di contatto (il tutto come specificato nell’informativa)

Fine modulo

Le richieste di accedere allo strumento sono talmente elevate che, aprendo il sito di Open AI per utilizzare Chat GPT, si può trovare il messaggio «ChatGPT is at capacity right now».

La diffusione e i molteplici utilizzi cui si può prestare ChatGPT fanno emergere, ancora una volta, la necessità di un’attenta riflessione, che tocchi aspetti giuridici ed etici[1], sui possibili pericoli, soprattutto in ottica di discriminazione, che possono derivare dall’utilizzo di questo strumento. ChatGPT ci offre l’occasione per tornare su temi che riguardano l’impiego di sistemi di intelligenza artificiale e per interrogarsi sulla tenuta normativa e sul rispetto dei diritti fondamentali della persona.

ChatGPT e i bias

ChatGPT, come tutti i sistemi di Intelligenza Artificiale, presenta il rischio che il suo algoritmo venga addestrato in modo tale da fornire risposte condizionate da fallacie.

Ed è la stessa ChatGPT che, interrogata sui possibili pericoli del suo utilizzo, include il rischio di discriminazione affermando che se il modello è stato addestrato su dati che presentano bias, può generare contenuti discriminatori nei confronti di determinate minoranze.

L’affermazione di ChatGPT ricalca quello che è conosciuto come “garbage in, garbage out” ossia, la qualità delle informazioni in output è definita dalla qualità delle informazioni che sono date alla macchina.

La presenza di bias nei sistemi di Intelligenza Artificiale, nel caso in cui la stessa sia posta alla base di decisioni automatizzate, può portare a fenomeni di discriminazione.

I casi di discriminazione

Il fenomeno della discriminazione conseguente all’utilizzo dell’Intelligenza Artificiale non è nuovo ed è al centro del dibattito europeo da diverso tempo poiché strettamente legato al rispetto dei diritti fondamentali[2].

Infatti, in passato si sono già registrati casi di discriminazione causati dall’impiego di sistemi di Intelligenza Artificiale caratterizzati da bias.

Tra i vari esempi, si ricorda il caso del 2015 relativo all’algoritmo utilizzato da Amazon per i processi di selezione, il quale, a causa di una fallacia nelle istruzioni iniziali e al processo di machine learning, ha portato a favorire i candidati uomini discriminando le donne.

Se l’AI decide l’accesso alle cure su base etnica

Un altro caso, del 2019, ha visto come protagonista un algoritmo utilizzato negli Stati Uniti, il quale dava la priorità all’accesso alle cure discriminando sulla base dell’origine etnica dell’interessato e favorendo un gruppo a discapito di un altro.

Tornando in Europa, nel 2020 il tribunale dell’Aia ha sospeso l’utilizzo di SyRi poiché ha escluso dai sussidi sociali ventimila famiglie perché sospettate di frode. In quel caso, nonostante l’algoritmo fosse stato realizzato con l’intento di prevenire le frodi, ha sortito l’effetto di porre un maggior controllo sui cittadini più svantaggiati, anche in questo caso a causa di bias insiti nello stesso algoritmo.

ChatGPT, in quanto modello basato su intelligenza artificiale e machine learning, non è esente dai rischi sopra descritti. Come si può intervenire per far sì che l’utilizzo di sistemi automatizzati non automatizzi anche la discriminazione?

L’intervento umano nel GDPR e nella proposta di Regolamento sull’IA

L’obbligo di rispettare il principio di non discriminazione è sancito già dall’articolo 2 del TUE[3], dall’articolo 10 del TFUE[4]. Possibili soluzioni per prevenire e “correggere” gli eventuali effetti negativi di un algoritmo viziato da bias potrebbero essere quelle individuate dal GDPR e dalla proposta di Regolamento sull’intelligenza artificiale che prevedono: l’intervento dell’uomo nel primo caso, la sorveglianza umana nel secondo.

I due approcci presentano delle differenze. Infatti, nel GDPR, l’art. 22 prevede il diritto dell’interessato a non essere sottoposto ad una decisione basata unicamente sul trattamento automatizzato che produca effetti giuridici che lo riguardano o che incida significativamente sulla sua persona, salvo le eccezioni espressamente indicate nello stesso articolo.

In ogni caso, l’interessato ha sempre il diritto di chiedere l’intervento umano. L’art. 22, se letto in un’ottica restrittiva, potrebbe essere considerato come limite all’utilizzo dei sistemi di Intelligenza artificiale.

La proposta di regolamento europeo sull’intelligenza artificiale, che si pone nell’ottica di assicurare la coerenza con la Carta dei diritti fondamentali dell’Unione europea e il diritto derivato dell’UE in vigore in materia di protezione dei dati, non discriminazione e parità di genere, prevede all’articolo 14 la “Sorveglianza umana”.

Infatti, come indicato nel considerando 48 «I sistemi di IA ad alto rischio dovrebbero essere progettati e sviluppati in modo da consentire alle persone fisiche di sorvegliarne il funzionamento.».

Dunque, le misure previste dal citato art. 14, introdotte per i sistemi ad alto rischio, sembrano volte a far mantenere un certo controllo da parte dell’uomo però in un’ottica diversa rispetto a quanto indicato nell’art. 22 del GDPR che prevede un vero e proprio intervento umano.

L’algoritmo “etico”

Considerata la possibilità dell’intervento umano quale possibile correttivo a fenomeni di discriminazione dovuti ad un algoritmo con dei bias, rimane da considerare quando lo stesso algoritmo non possa essere considerato rispettoso dell’etica.

La spinosa questione dell’etica in relazione all’intelligenza artificiale è stata presa in considerazione già a partire dalla “Declaration on Ethics and Data Protection in Artificial Intelligence[5] del 2018 e dalle “Linee guida in materia di intelligenza artificiale e protezione dei dati” del comitato consultivo della Convenzione 108 del 2019.

Resta fermo che, seppur siano stati individuati dei principi comuni, ogni stato dimostra una sensibilità diversa alle questioni relative alle discriminazioni e al grado di tollerabilità delle stesse e vi è il rischio che le anzidette differenze si riversino poi nella realizzazione e nell’utilizzo dei sistemi di intelligenza artificiale.

È compito del diritto, pertanto, fissare dei paletti al fine di individuare dei limiti minimi che non possano essere superati per garantire i diritti fondamentali della persona.

Conclusioni

ChatGPT si inserisce a pieno titolo tra i sistemi di intelligenza artificiale che potranno avere un forte impatto in diversi aspetti della vita quotidiana, personale e professionale.

Pertanto, considerato il panorama attuale sia dal punto di vista dell’avanzamento tecnologico, sia dal punto di vista dell’evoluzione del quadro normativo, l’auspicio è quello di vedere da parte del legislatore l’apposizione di punti fermi per garantire il rispetto dei diritti fondamentali, lasciando al contempo spazio alla tecnologia.

È importante altresì che l’uomo possa intervenire e che continui a esercitare una sorta di controllo nei confronti dell’algoritmo. L’intensità e la tipologia di tale intervento potranno seguire il modello del GDPR o quello individuato nella proposta di regolamento sull’intelligenza artificiale.

NOTE

  1. Intelligenza artificiale e ruolo della protezione dei dati personali. L’analisi di Ginevra Cerrina Feroni (Garante Privacy) Intervento di Ginevra Cerrina Feroni, Vicepresidente del Garante per la protezione dei dati personali, Key4biz, 14 febbraio 2023) 
  2. European Union Agency For Fundamental Rights “Preparare un giusto futuro. L’intelligenza artificiale e i diritti fondamentali”, 2021 
  3. «L’Unione combatte l’esclusione sociale e le discriminazioni e promuove la giustizia e la protezione sociali, la parità tra donne e uomini, la solidarietà tra le generazioni e la tutela dei diritti del minori». 
  4. «Nella definizione e nell’attuazione delle sue politiche e azioni, l’Unione mira a combattere le discriminazioni fondate sul sesso, la razza o l’origine etnica, la religione o le convinzioni personali, la disabilità, l’età o l’orientamento sessuale». 
  5. DECLARATION ON ETHICS AND DATA PROTECTION IN ARTIFICAL INTELLIGENCE, 40th International Conference of Data Protection and Privacy Commissioners, October 2018, Brussels 

WHITEPAPER

Scopri gli impatti che l’obbligo di DPIA avrà per le aziende e nelle PA. Scarica la guida 2023

Cybersecurity

Contract Management

Inizio modulo

Leggi l'informativa sulla privacy

Email

  • Acconsento alla comunicazione dei dati a terzi appartenenti ai seguenti settori merceologici: servizi (tra cui ICT/digitali), manifatturiero, commercio, pubblica amministrazione. I dati verranno trattati per finalità di marketing tramite modalità automatizzate e tradizionali di contatto (il tutto come specificato nell’informativa)

Fine modulo

Valuta la qualità di questo articolo

  •  
  •  
  •  
  •  

Anna Cataleta