separateurCreated with Sketch.

Dobbiamo davvero temere l’intelligenza artificiale?

robot thinking
whatsappfacebooktwitter-xemailnative
Joseph Vallançon - pubblicato il 28/02/18
whatsappfacebooktwitter-xemailnative

Un rapporto pubblicato il 20 febbraio scorso lancia l’allarme: se non si fa niente, l’intelligenza artificiale (AI) potrà minacciare gravemente, e a breve termine, le democrazie e i popoli. Molto rumore per nulla… o pessimismo anticipatore?

Solo pochi giorni fa – era il 20 febbraio –: 26 esperti anglosassoni rendevano pubblico il loro rapporto sull’intelligenza artificiale (AI). Intitolato “L’utilizzo malevolo dell’intelligenza artificiale: previsioni, prevenzione e attenuazione”, tale rapporto stende un quadro spaventoso dei pericoli dell’intelligenza artificiale. Pur se redatto da specialisti nei settori di cybersicurezza e robotica appartenenti a prestigiose università (Cambridge, Oxford, Yale, Standford) oppure a ONG di primo rilievo, il rapporto è passato inosservato. Tanto dalla stampa anglosassone quanto da quella europea.

Non siamo concentrati se non sulle tecnologie di IA che esistono (almeno allo stadio di ricerca o di prototipo) o che sono plausibili entro il prossimo lustro,

precisano gli autori del rapporto. E se in questo lasso di tempo niente sarà fatto per prevenire la perversione dell’IA a fini criminali o delittouosi saranno la sicurezza delle persone, la cybersicurezza e l’equilibrio politico ad essere messi gravemente in pericolo, secondo loro. In questi tre dominii,

gli attacchi che saranno permessi dal crescente utilizzo dell’IA saranno particolarmente efficaci, calibrati finemente e difficili da localizzare.

Scenari agghiaccianti

Il rapporto addita il pericolo di un utilizzo di IA da terroristi,

come utilizzare droni o veicoli autonomi per trasportare esplosivi e causare incidenti.

Tra gli scenari catastrofici immaginati nel rapporto, quello di un robot per le pulizie manomesso che s’intrufolerebbe surrettiziamente in mezzo ad altri robot incaricati di fare le pulizie in un ministero a Berlino. Un giorno il robot intruso passa all’attacco dopo aver riconosciuto visivamente il ministro delle Finanze: dopo essersi avvicinato a lui, esploderebbe autonomamente uccidendo il proprio bersaglio.



Leggi anche:
I mezzi biotecnologici mettono in discussione la nostra umanità?

Altro pericolo: l’utilizzo dei programmi di IA per scopi politici. L’abbiamo già visto, in questi ultimi mesi, con i sospetti di manipolazione delle ultime elezioni presidenziali americane per mano dei Russi. In questa guerra dell’informazione il rapporto anglosassone evoca tecnologie già capaci di fabbricare video e suoni ingannatori, permettendo per esempio di far dire qualsiasi cosa a una personalità politica.



Leggi anche:
Azat, mago della tecnologia affetto da paralisi cerebrale: “Lavorare mi fa stare bene”

L’IA può condurre a «campagne di disinformazione automatizzate e altamente personalizzate», allertano gli autori del rapporto: analizzando i comportamenti degli internauti sarebbe possibile concepire messaggi su misura, che sarebbero inviati loro con lo scopo di influenzare il loro voto. In breve, «la cybercriminalità, già in forte crescita, rischia di rinforzarsi con gli strumenti procurati dall’IA», dichiarava all’Agence France-Presse, Seán Ó hÉigertaigh, direttore del Center for the Study of Existential Risk dell’Università di Cambridge, uno degli autori del rapporto. Gli attacchi di ancoraggio mirato (spear phishing) potrebbero per esempio diventare molto più facili da condurre su larga scala.

Un rapporto allarmista?

Fortunatamente i ricercatori e gli autori del rapporto non si contentano di fare la lista dei pericoli che ci aspettano al varco. Essi propongono anche delle piste per lottare contro tali derive. Preconizzano così una più grande trasparenza nei lavori condotti nel dominio dell’IA, un miglior inquadramento dei suoi attori mediante esperti in cybersicurezza, la promozione di un dibattito cittadino attorno alle sfide dell’IA, la necessità di porre un quadro etico e, infine, una buona informazione dei responsabili politici sulle questioni sollevate dall’IA.

Allora, che pensare di questo rapporto pubblicizzato? «Gli attori di questo genere di rapporto hanno l’abitudine di essere allarmisti», spiega ad Aleteia Claude de Ganay, deputato LR del Loiret e autore di un rapporto d’informazione sull’argomento a nome dell’Ufficio parlamentare francese di valutazione delle scelte scientifiche e tecnologiche (OPECST). Tale rapporto era intitolato “Per una intelligenza artificiale sotto controllo, utile e demistificata”.

L’IA? Ci sono i pro e i contro… È un classico: per ogni invenzione e sviluppo i due campi si oppongono. I rischi esistono, questo è certo, ma tocca a noi controllarli. Bisogna essere vigilanti in rapporto alla vita umana, alla protezione dei dati, e interrogarsi sulle possibili applicazioni terroristiche dell’IA. Ma siamo molto lontano dal predominio dell’IA sull’uomo. Il giorno in cui vedrete un robot esprimere un sentimento, allora tornate a chiamarmi…

L’uomo superato dalle proprie scoperte

Secondo lui, se la prudenza è d’obbligo, a nulla giova agitare lo spauracchio di un’apocalisse in arrivo: l’intelligenza artificiale sarà ciò che l’uomo, con la sua intelligenza naturale, ne farà. Il deputato si domanda:

Tutti i progressi tecnici presentano un potenziale pericolo. Quando hanno inventato l’aereo si pensava forse all’11 settembre 2001? E se avessero presentito il pericolo di un utilizzo terroristico dell’areo ci si sarebbe dovuti astenere dallo sviluppo dell’invenzione?

Spetta dunque agli uomini il fare in modo da non essere soverchiati dalle proprie scoperte. Per questo, Claude de Ganay promuove la messa in opera di un quadro etico all’IA: «Tale quadro non esiste né in Francia né in Europa, ed è su scala europea che bisogna lavorarci». Bisogna dire che la Francia non sembra più avere un peso specifico importante, in questo dominio, su scala internazionale. Del resto, il Figaro notava – commentando il rapporto anglosassone – «che nessuna istituzione francese ha partecipato a questo lavoro, malgrado la reputazione mondiale dei ricercatori nazionali [francesi, N.d.T.] nell’IA». «Senza un quadro etico – avverte il deputato LR – continueremo ad essere spettatori passivi e inquieti dei progressi dell’IA».

Non diventare vittime della propria creazione

Rincara la dose Nacim Ihaddadene. L’insegnante-ricercatore dell’Institut Supérieur de Électronique et du Numérique (l’ISEN, collegato all’università cattolica di Lille) ha preso visione del rapporto fin dalla sua pubblicazione.

Gli usi malevoli che gli autori del rapporto evidenziano sono certamente reali, ma non devono occultare tutto il bene che l’IA può apportare, soprattutto nel dominio della sanità.

Il ricercatore di Lille lo assicura:

Alcuni cancri, ad esempio, sono meglio diagnosticati con l’aiuto dell’IA che con lo sforzo della sola intelligenza umana. E che dire del miglioramento che rappresenta una vettura autonoma per un handicappato? Eppure tale autonomia è un progresso dell’IA.

Insomma, non si dovrebbe – col pretesto di pericoli in agguato – buttare il bambino con l’acqua sporca. Se il rapporto reso noto il 20 febbraio ha un’utilità, è quella di coinvolgere in un dibattito pubblico attorno alle sfide dell’IA di domani. E di sollevarne gli aspetti etici. Perché non viga il principio “homo homini lupus” e non ci si ritrovi vittime delle nostre creazioni (l’IA), è urgente che si faccia ritorno alle sorgenti dell’etica. Questa dimensione sarà al cuore del rapporto sull’IA che il Primo ministro francese, Édouard Philippe, ha affidato recentemente al deputato LREM Cédric Villani? Lo si aspettava per fine gennaio, da principio: sembra che bisognerà attendere i primi di aprile per saperne di più.

[traduzione dal francese a cura di Giovanni Marcotullio]

Top 10
See More