
AI ed Etica: un connubio indispensabile
L’intelligenza artificiale è una risorsa tecnologica largamente usata nelle aziende ma anche nelle case delle persone comuni.
L’AI permette di raggiungere obiettivi che gli umani da soli non potrebbero sostenere. La potenzialità delle tecnologie AI consente di analizzare grandi quantità di dati, elaborarli e apprendere.
Man mano che l’uomo cede potere decisionale all’AI in processi che hanno impatti su persone fisiche, diventa sempre più importante assicurarsi che le collaborazione tra uomo e macchina segua un etica.
In questo articolo approfondiremo in quali casi sia necessaria un’etica all’uso dell’intelligenza artificiale e quali sono le caratteristiche auspicabili per un algoritmo che agisca tenendo conto dell’etica.
Sommario degli argomenti
L’intelligenza artificiale anche indicata con la sigla IA o AI è l’abilità di un dispositivo di mostrare capacità tipiche dell’essere umano: ragionamento, apprendimento, pianificazione e creatività.
Di per sé dunque, il termine intelligenza artificiale comprende certamente due elementi: la macchina e l’intelletto tipico di ogni essere umano.
La componente di intelligenza artificiale permette ai sistemi informatici di studiare il proprio ambiente, mettersi in relazione con quello che percepisce e agire verso per raggiungere un obiettivo specifico.
Se portato all’estremo, gli algoritmi di intelligenza artificiale permettono al computer di raccogliere dati, processarli e fare azioni.
I sistemi di IA sono capaci di adattare e mutare il loro comportamento in base agli effetti delle azioni precedenti, il tutto lavorando in piena autonomia, senza il controllo della persona.
L’intelligenza artificiale si propone di supportare l’uomo nella vita di tutti i giorni agendo quasi in maniera sovrapponibile adottando di fatto una tecnica e una precisione irraggiungibile, caratteristica tipica di una macchina.
Questo significa che si può trovare in condizioni di scegliere, valutando diverse alternative.
Le decisioni che un essere umano prende dipendono dal carattere, dalle esperienze passate e dalla morale.
Un robot invece non ha un’etica interna e di conseguenza, è necessario definire una sorta di morale universale (misurabile attraverso algoritmi) da insegnare a queste macchine perché possano prendere scelta soppesate. Anche quando questa contraddice la logica matematica.
Ecco alcuni esempi e rischi dell’impiego dell’AI.
Riconoscimento facciale
Le tecniche di AI che si occupano di riconoscimento facciale sono già impiegate da alcuni regimi per la sorveglianza di massa delle persone.
Questo processo certamente lede il diritto di ciascuno all’anonimato e alla riservatezza delle sue abitudini.
Un algoritmo di questo tipo implementato per le strade come ad esempio in Cina, permette di ridurre drasticamente la criminalità e le infrazioni del codice della strada, in quanto qualunque atto illegale è riconosciuto e l’autore immediatamente identificato e segnalato.
Ma d’altro canto riporta un po’ alla situazione Orwelliana del Grande Fratello che vede tutto e controlla tutto.
Assistenti vocali
Esistono software che sfruttano le tecnologie AI per supportare l’utente tramite assistenza vocale.
La voce stessa che risponde alle nostre richieste di informazioni è frutto di un algorismo o di stringhe di codice.
La percezione dell’umanità delle persone venga distorta dall’inclusione di queste persone virtuali nella vita quotidiana.
Anche qui, un esempio delle possibili scenari si trova in un film “Lei” in cui un uomo introverso si innamora del suo assistente vocale.
Le conseguenze reali sono naturalmente sconosciute ma non è escluso che in futuro, l’intelligenza artificiale possa essere sfruttata per manipolare persone inconsapevoli che il loro interlocutore è una macchina e non un essere vivente.
Profilazione
La profilazione tramite AI viene definita come:
qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati per valutare determinati aspetti personali relativi a una persona fisica. In particolare, la profilazione viene impiegata per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica.
Da una parte permetterebbe la vendita di prodotti e servizi incredibilmente personalizzati ma dall’altra comporterebbe una conoscenza minuziosa ed inquietante del modo di essere di ciascuno di noi.
Questi algoritmi di profilazione potrebbero essere impiegati anche per lo scoring, il che ancora una volta presenta dei vantaggi se utilizzato, ad esempio nella scuola o per valutazioni cliniche.
L’altra faccia della medaglia è che potrebbe trasformarsi un uno strumento di controllo sociale come avviene in alcuni stati dittatoriali come la Cina.
Armi robotiche
I Lethal Authonomous Weapon Systems (LAWS) sono robot a tutti gli effetti con la capacità di riconoscere ed eliminare alcuni obiettivi (perlopiù esseri umani). Possono decidere se e chi uccidere senza l’intervento umano, solo ricorrendo ad un algoritmo.
Attualmente non sono mai stati utilizzati in un conflitto reale, ma si tratta di una tecnologia esistente e potenze quali la Russia n sono in possesso.
Si tratta certamente di un campo totalmente inesplorato che ancora non prevede regolamenti o leggi. Tuttavia, le armi dotate di intelligenza artificiale ma quasi certamente, questi dispositivi sono sottoposti al diritto umanitario che impedisce l’uccisione indiscriminata di civili in assenza di un obiettivo militare definito.
Lo scenario di una guerra in cui a combattere sono protagonisti gli esseri umani e i robot potrebbe divenire realtà.
L’intelligenza artificiale però essere una risorsa rivoluzionaria per gli esseri umani ma necessita di una regolamentazione etica che vieti rischi legati alla violazione privacy ed indipendenza di pensiero come:
-
Danni causati da eccesso di fiducia verso questi strumenti
-
AI utilizzata per fini malevoli
-
Limitazione della responsabilità umana
-
Incremento delle disuguaglianze
-
Profilazione massiva finalizzata all’indirizzamento delle scelte politiche e commerciali
E’ necessario che le organizzazioni e gli stati organizzino dei protocolli di tutela per abbattere questi rischi in modo che sia possibile per tutti una fruizione sicura ed ottimale di questi strumenti. Altri dubbi riguardano invece le responsabilità legali in ambito AI.
Qualora un algoritmo dovesse autonomamente scegliere di violare una legge chi ne sarebbe responsabile?
Il Programmatore? L’utilizzatore?
Abbiamo già constatato che l’intelligenza artificiale presenta ancora molte criticità eppure alcune soluzioni sono state trovate, in alcuni casi già implementate.
Per quanto riguarda i rischi di profilazione e manipolazione da parte dell’AI, al momento la migliore ipotesi possibile sembra essere quella di informare gli utenti del fatto che stanno interagendo con degli algoritmi e sul modo in cui i loro dati saranno utilizzati permettendogli di rifiutare la profilazione. Questo se in teoria può apparire scontato ma in pratica potrebbe non esserlo.
Sicuramente è necessario lo sviluppo di leggi che regolamentino tutti i possibili ambiti. Sono indispensabili misure che tutelino la trasparenza e i potenziali rischi nell’impiego di queste tecnologie. Tutte le organizzazioni pubbliche e private devono potersi adoperare per verificare che gli algoritmi da loro implementati risultino in qualche modo discriminatori o che influenzino le scelte degli utenti appiattendo la loro personalità.
Per ultimo, bisogna anche considerare che l’uso di algoritmi AI non implica necessariamente un problema etico.
Le leggi che dovranno regolarne l’uso dovranno tenere conto di una attenta valutazione della portata dei rischi che, di caso in caso, l’AI comporta.
Facciamo un salto nel futuro.
Le macchine si guidano da sole, il medico di famiglia è un robot e i servizi clienti sono gestiti interamente da assistenti vocali intelligenti.
Insomma, l’intelligenza artificiale permea la nostra vita quotidiana senza invadere la nostra privacy. Un’utopia? Forse sì, ma un gruppo di esperti di alto livello della commissione europea sull’AI ha tracciato delle linee guida etiche per la gestione dei processi di machine learning in modo affidabile.
In questo documento vengono delineate tutte le caratteristiche che un algoritmo dovrebbe avere per mantenere una visione antropocentrica, ossia per permettere lo sfruttamento ottimale delle sue potenzialità e allo stesso tempo, garantire un uso responsabile di queste soluzioni.
-
Etica by design: l’etica deve essere incorporata sin dall’inizio del progetto. Ogni fase deve includere l’analisi del livello di conformità e l’eventuale adeguamento dell’algoritmo ai principi etici.
-
Spiegabilità e interpretabilità: i modelli devono essere comprensibili all’uomo e deve essere possibile ottenere dall’algoritmo spiegazioni riguardo ai fattori che hanno portato ad una scelta. Questo aspetto è fondamentale in tutte le applicazioni che comportino un impatto diretto su delle persone.
-
Equità ed inclusione: bisogna impedire che l’algoritmo diventi discriminatorio a seguito di dati di training che non sono rappresentativi della popolazione con cui l’AI si deve effettivamente interfacciare. Ossia deve essere in gradi di generalizzare correttamente anche oltre gli esempi dai quali ha appreso. Questi strumenti devo essere accessibili e fruibili a tutti.
-
Tracciabilità e verificabilità: Deve essere possibile monitorare tutte le fasi e spiegare i risultati per garantire il benessere e i diritti degli utenti.
-
Dati personali: I dati personali raccolti devono essere adeguatamente protetti con sistemi conformi alla normativa comunitaria e nazionale vigente in materia. Devono altresì essere utilizzati in modo lecito, trasparente ed in linea con i fini dichiarati al momento della raccolta.
-
Robustezza e sicurezza: Nuove tecnologie comportano nuove vulnerabilità e nuove tecniche di attacco e difesa. Le tecnologie che sfruttano l’AI devono essere protette con sistemi all’avanguardia, aggiornati, che garantiscano livelli di sicurezza compatibili con i livelli di rischio.
-
Protezione dei consumatori: Un sistema AI affidabile deve rispettare i diritti dei consumatori e proteggere i loro interessi (secondo la normativa vigente) comunicando con linguaggio accessibile agli utenti.
-
Protezione sociale e ambientale: è necessaria una valutazione dell’impatto sull’ambiente e sull’assetto sociale del posto in cui viene utilizzata. Non può essere impiegata in contesti nei quali comporterebbe rischi ambientali o sociali.
-
Verifica: I sistemi devono essere continuamente controllati sia dall’algoritmo stesso che da strumenti esterni. La supervisione dell’uomo non può essere annullata.
In ambito di cybersecurity, le tecnologie AI vengono ampiamente utilizzate sia nell’ambito dello studio del comportamento dei malware sia come tecnologie di prevenzione, monitoraggio e difesa dei sistemi informatici.
Nei prossimi anni assisteremo letteralmente ad un invasione di sistemi basati su algoritmi AI, il nostro modo di vivere cambierà di conseguenza.
Le modalità e i settori di impiego di questi strumenti spaziano dalla medicina, all’agricoltura, alla lotta alla criminalità e al cambiamento climatico.
Sarà necessario però affrontare i rischi legati all’uso malevolo dell’intelligenza artificiale, che possono mettere in serio pericolo la nostra libertà individuale, indipendenza del nostro pensiero diventando strumenti di controllo sociale di massa.
Per evitare questo scenario sarà indispensabile che ciascuna realtà si adoperi per inseguire l’idea di un AI antropocentrico.
Onorato Informatica
Onorato Informatica è un’azienda specializzata in sicurezza informatica dal 2006.
La nostra azienda ha sede centrale a Mantova e uffici cyber security a Parma, Milano e Los Angeles. Se sei interessato ai nostri servizi di Vulnerability Assessment e Penetration Testing, contattateci.
- Autore articolo
- Ultimi articoli

Laureata in Fisica, sta proseguendo gli studi in “Fisica dell’atmosfera, climatologia e meteorologia” presso l’università di Roma Tor Vergata. Nel frattempo, unisce la sua passione per la scrittura a quella per la cybersecurity per promuovere la consapevolezza digitale attraverso il blog di Onorato Informatica.