Skip to main content

L’Intelligenza Artificiale ha già da tempo iniziato a esprimere tutto il suo potenziale: dalla diagnosi del cancro alla comprensione dei cambiamenti climatici, fino ad arrivare alla sostituzione dell’essere umano in attività particolarmente complicate.

La tecnologia implementata dall’Intelligenza Artificiale ha fatto negli ultimi anni enormi progressi, ed è in grado di ridurre le preoccupazioni derivanti da un gran numero di problemi. 

Ciascuno di noi può chiedersi: “In futuro sarà possibile prevedere disastri climatici, terrorismo, crimini e crisi finanziare mediante le reti neurali e il Machine Learing?”

La risposta è piuttosto prevedibile, ed è inequivocabilmente affermativa.

Basti pensare a come l’Intelligenza Artificiale sia già riuscita a trovare delle connessioni nel canto degli uccelli migratori, consentendo ad alcuni studiosi di comprendere come gli animali rispondano al cambiamento climatico attualmente in corso. 

In ambito medico/scientifico fa discutere “Google DeepMind”, che attraverso un’analisi del corpo umano è già ora in grado di restituire diagnosi corrette al 94,5%. 

Viene da sé che uno strumento quale l’Intelligenza Artificiale offre potenzialità enormi, e proprio per questo necessita di essere indirizzato in modo corretto affinché si mantenga “al servizio dell’umanità”.

Questo scenario pone dunque sotto i riflettori la questione etica, ovvero l’Ethical AI.

La cosiddetta tecnologia intelligente che simula le modalità tramite le quali l’essere umano ragiona, comprende e prende decisioni – combinate alla potenza di calcolo e alle opportunità di analizzare dati pressoché infiniti – comporta inevitabilmente una profonda riflessione sul suo impiego. 

Come ogni innovazione, infatti, anche l’Intelligenza Artificiale racchiude in sé un potenziale enorme, lo stesso che può essere sfruttato in qualsiasi modo l’uomo desideri. 

È necessario dunque orientarne l’operato e l’uso in maniera etica, senza spaventarsi di fronte al cambiamento.

Machine Learning e modelli predittivi

Lo sviluppo dei modelli di Machine Learning e Deep Learning sempre più avanzati e all’avanguardia anticipa un futuro ricco di soddisfazioni per quanto riguarda i sistemi di Intelligenza Artificiale.

Questo poiché le principali applicazioni di queste tecnologie non pongono alcun limite, ma anzi sono ormai profondamente radicate in alcuni settori commerciali strategici, così come in contesti medico-sanitari, finanziari, economici, e addirittura giuridici. 

Impossibile dunque negare l’efficacia dei sistemi di Intelligenza Artificiale basati sul Machine Learning, a conferma che i probabili ostacoli sulla relativa diffusione sono prevalentemente di natura etica o giuridica, piuttosto che tecnologica.

Questi sistemi di Intelligenza Artificiale non sono altro che modelli predittivi che dispongono di un quantitativo incalcolabile di informazioni, mediante le quali mettono in atto una vera e propria fase di “apprendimento”.

L’esito di questo processo permette di associare a una decisione le caratteristiche di un individuo, andando così a sostituire il ragionamento dell’uomo. 

Ethical AI: cosa significa

Approcciando all’Intelligenza Artificiale e a quanto ruota attorno a questo contesto, tra le problematiche da affrontare emerge che, per quanto tali sistemi siano creati dall’essere umano, sovente sono in grado di evolvere in maniera così complessa da rendersi quasi incomprensibili fino in fondo.

Modelli estremamente sofisticati quali i famosi Neural Network e Deep Neural Network appaiono particolarmente ostici da interpretare, dato che è pressoché impossibile valutarne il comportamento interno, giustificandone razionalmente le decisioni.

Viene da sé che le stesse andrebbero considerate valide “a scatola chiusa”.

E se il presente vede protagonista un approccio quasi dogmatico – pertanto inammissibile in ambito medico o giuridico – possiamo supporre che sarà il futuro a sanare queste lacune

In attesa che quanto auspicato prenda progressivamente corpo, appare doveroso segnalare alcune sostanziali differenze di approccio culturale, le stesse che si traducono in vere e proprie linee guida etico-legali che dettano l’impiego responsabile dell’Intelligenza Artificiale.

Uso responsabile dell’AI

Ogni Paese ha fatto propri i principi etici legati all’Intelligenza Artificiale, seppur interpretandoli in modo diverso.

Principi che vertono “universalmente” sulla trasparenza, sulla giustizia, sulla non maleficenza, così come sulla responsabilità e privacy.

Le principali differenze intercorrono tra la regolamentazione e l’innovazione, variabili considerate da ciascuno in maniera soggettiva.

Se gli USA pongono l’ago della bilancia verso l’innovazione, l’Unione Europea adotta un approccio a favore della regolamentazione

Più flessibilità invece per quanto riguarda la Cina che, influenzata prepotentemente dall’ideologia socialista, pone al centro di qualsiasi innovazione l’obiettivo legato all’armonia sociale, conseguibile anche tramite elementi di controllo morale e sorveglianza messi in atto dal governo.

Come anticipato, l’approccio all’Intelligenza Artificiale da parte dell’Unione Europea è invece improntato sul rispetto dei diritti fondamentali, della democrazia e della legge, traendo origine dalla concezione kantiana che riconosce all’individuo libertà, autonomia e dignità. 

È necessario dunque che lo sviluppo dei sistemi di Intelligenza Artificiale sia in grado di adeguarsi a quattro principi etici considerati irrinunciabili: prevenzione da rischi, rispetto per l’autonomia umana, equità e spiegazione.

Per quanto dal punto di vista regolamentare questo tipo di approccio possa sembrare rigido, è ad oggi al contempo considerato da molti come un potenziale ostacolo allo sviluppo dell’Intelligenza Artificiale.

Altri invece ritengono che possa tradursi in un vantaggio competitivo, poiché i consumatori possono essere positivamente attratti da sistemi volti a offrire maggiori garanzie e tutele.

La Commissione Europea, dopo aver nominato un gruppo di esperti chiamato “High-Level Expert Group on Artificial Intelligence” (AI HLEG), nel 2019 ha prodotto alcune interessanti linee guida per lo sviluppo dei sistemi di Intelligenza Artificiale.

Tra i sette principi cardine di queste linee guida, alcuni di essi quali privacy, data governance e trasparenza meritano le dovute riflessioni.

Dal punto di vista della privacy è riconosciuta la necessità di proteggere i dati per l’intero ciclo di vita della tecnologia, impostando un meccanismo di valutazione sistematica in grado di quantificare l’impatto di ogni modello sulla protezione delle informazioni. 

Da un lato la fase di apprendimento dei modelli di Machine Learning in genere si basa sull’utilizzo di dati anonimizzati, che quindi non permettono l’individuazione diretta degli individui a cui gli stessi sono riferiti.

Dall’altro, tuttavia, associando tali dati ad altre informazioni pubbliche, è possibile re-identificare gli interessati, con conseguenti potenziali rischi per i loro diritti e libertà individuali. 

Appare dunque imprescindibile un’adeguata Data Governance che includa l’implementazione di protocolli per l’accesso ai dati, e processi volti a garantire la loro qualità e integrità.

Le esigenze legate alla Data Protection appaiono ancora più evidenti quando si parla di sistemi di Intelligenza Artificiale che prevedono il trattamento di dati “particolari”, come ad esempio quelli sanitari, che vanno trattati mediante la rigida applicazione del principio di “privacy by design” stabilito dal GDPR. 

Allo stesso modo dalle linee guida dell’Unione Europea sull’Intelligenza Artificiale sono richiesti anche specifici requisiti di trasparenza e interpretabilità.

Secondo il principio di trasparenza, ogni modello di Intelligenza Artificiale dovrebbe garantire una visione completa dell’intero meccanismo, analizzabile in qualsiasi momento tramite l’intervento umano.

Un processo decisionale di cui non è possibile ricostruire ogni singola fase non è di fatto in grado di offrire le dovute garanzie in termini di trasparenza e affidabilità.

Proprio per questo gli sforzi sotto l’aspetto tecnologico si stanno concentrando sull’implementazione di tecniche che permettano di fornire spiegazioni comprensibili sul comportamento di sistemi decisionali basati su modelli non interpretabili.

Approccio etico all’Intelligenza Artificiale

Al centro del concetto di etica legata all’Intelligenza Artificiale compare l’importanza dell’essere umano.

È l’uomo infatti a risolvere i problemi, non le macchine.

Per quanto le stesse abbiano la capacità di elaborare le informazioni necessarie a risolvere eventuali criticità (e di conseguenza possano essere programmate per operare in maniera automatica), lavorano di fatto sulla base della soluzione al problema data dall’uomo.

Fornire dati migliori e di qualità

Gli algoritmi basati sull’Intelligenza Artificiale vengono addestrati a partire da un insieme di dati forniti dall’essere umano.

Qualora i modelli prendano decisioni imprecise o eticamente discutibili, significa che non hanno a disposizione dati a sufficienza, o che il rinforzo dell’apprendimento non è appropriato per il risultato che si vuole perseguire.

È quindi opportuno assicurarsi sempre che i dati e gli input forniti alle macchine offrano all’algoritmo la possibilità di tracciare e definire un quadro completo e corretto.Infatti il lavoro di un Data Scientist è quello di creare modelli che “generalizzano”, cioè che comprendono le informazioni a disposizione, fornendo output congrui al contesto e non affetti da “bias”.

Offrire un’adeguata supervisione alla governance

Affinché l’Intelligenza Artificiale sia davvero etica occorre definire un sistema di governance in grado di chiarire in maniera inequivocabile gli obiettivi del progetto.

Fondamentale è stabilire in prima battuta quali decisioni verranno automatizzate con l’Intelligenza Artificiale e quali richiederanno invece l’intervento umano, prevedendo un costante monitoraggio e un auditing regolare degli algoritmi che eviti eventuali distorsioni, verificando il corretto funzionamento del modelli.

La tecnologia deve perciò consentire all’uomo di apportare modifiche, anche e soprattutto quando si fa riferimento all’Intelligenza Artificiale. 

Sono gli esseri umani a necessitare della possibilità di selezionare e regolare i dati di addestramento, controllare le fonti, e scegliere la modalità di trasformazione degli stessi.

Al contempo, le tecnologie basate sull’Intelligenza Artificiale dovrebbero rivelarsi di supporto per una governance affidabile, garantendo l’accesso ai dati e la capacità di modificare gli algoritmi, qualora errati, o nel caso in cui finiscano per operare al di fuori dei confini eticamente definiti.

Conclusioni

Oggi abbiamo in mano un potenziale non del tutto sfruttato: ogni organizzazione raccoglie quotidianamente dati che potrebbero fruttare dei guadagni.

Noi di Karon possiamo aiutarti a creare un progetto di Data Science strutturato grazie a un metodo consolidato nel tempo.

Se vuoi conoscerci e avere più informazioni su cosa possiamo fare per te prenota una videocall o contattaci per organizzare un incontro in presenza presso la tua azienda!

Ecco come si svolgerà:

  1. Analizzeremo il problema

    Per comprendere meglio cosa possiamo fare per te dobbiamo capire qual è il problema della tua organizzazione.
  1. Comprenderemo quanto ti manca

    Per capire se hai tutte le informazioni necessarie per raggiungere l’obiettivo dobbiamo sapere quanto la tua azienda è digitalizzata, quante informazioni hai, e a che livello tecnologico ti trovi.
  1. Studieremo le basi del progetto

    Stabiliremo insieme le basi del progetto. Non devi preoccuparti di avere già tutto chiaro o pensare di avere tutte le informazioni necessarie, saremo noi a porti le domande giuste per mettere a fuoco i passi successivi!

Prima si condividono gli obiettivi e i dati, prima si ottengono risultati mai visti!

Non aspettare ancora