Boicottaggio di ricercatori contro il KAIST e i robot-killer

Roma, 5 apr. (askanews) – Ricercatori e laboratori di circa 30 paesi hanno iniziato un boicottaggio nei confronti di una delle principali istituzioni scientifiche della Corea del Sud, Korean Advanced Institute of Science and Technology (KAIST), accusata di sta costruendo robot killer. Lo racconta oggi il Guardian.

Oltre 50 dei principali accademici che operano nel settore dell’intelligenza artificiale (AI) hanno firmato una lettera in cui chiedono il boicottaggio del KAIST a causa di un progetto che questo istituto ha avviato con il produttore di armi Hanwha Systems.

Per leggere l’intero articolo su Askanews:

http://www.askanews.it/esteri/2018/04/05/seoul-campagna-contro-centro-ricerca-vuol-sviluppare-robokiller-pn_20180405_00125/

Vedi ancora su Askanews:

http://www.askanews.it/scienza-e-innovazione/2018/04/05/centro-economia-digitale-intelligenza-artificiale-%C3%A8-progresso-pn_20180405_00275/

http://www.askanews.it/esteri/2017/08/21/no-ai-robot-killer-lappello-degli-esperti-allonu-pn_20170821_00034/

Il Manifesto 08.04.2018:        https://ilmanifesto.it/ccccccc/

I robot killer non devono nascere

Intelligenza artificiale. Scienziati internazionali boicottano il Kaist, l’istituto avanzato di scienza e tecnologia della Corea del Sud è colpevole di collaborare con le aziende produttrici di armi. E anche i dipendenti di Google attaccano l’azienda perché fornisce sistemi di controllo al pentagono basati sulla AI

Andrea Capocci Il Manifesto 08.04.2018

Una lettera aperta firmata da una cinquantina di scienziati leader nel campo dell’intelligenza artificiale chiede di boicottare l’Istituto avanzato di scienza e tecnologia della Corea del Sud, più noto nel mondo come Kaist. «Non visiteremo il Kaist né ospiteremo colleghi del Kaist, e non contribuiremo ad alcun progetto di ricerca che coinvolga il Kaist». Il linguaggio netto della lettera segnala uno scontro ad alto livello nella comunità scientifica.
Il Kaist è una delle migliori università a livello internazionale secondo tutte le metriche e si distingue soprattutto nel campo delle nuove tecnologie: per la classifica Thomson Reuters, è la sesta università più innovativa al mondo e la prima in Asia. I firmatari della lettera però non sono da meno: provengono da 30 paesi diversi e rappresentano molti nomi illustri della ricerca nel campo dell’intelligenza artificiale, come Toby Walsh (Australia), Marco Dorigo (Italia), Yoshua Bengio (Francia), Zhi-Hua Zhou (Cina) e Stuart Russell (Usa).

COSA HA COMBINATO il Kaist per meritarsi un attacco così duro? Secondo gli scienziati, l’istituto è colpevole di aver fondato un «Centro di ricerca per la convergenza della difesa nazionale e dell’intelligenza artificiale» con la principale azienda coreana di produzione di armi, la Hanwha. L’azienda è stata spesso criticata per la produzione di bombe a grappolo, bandite dalle convenzioni internazionali che, non a caso, la Corea del Sud non ha mai firmato. «Mentre l’ONU discute su come limitare la minaccia per la sicurezza nazionale proveniente dalle armi a controllo autonomo, è deplorevole che un’istituzione prestigiosa come il Kaist punti ad accelerare la corsa a sviluppare tali armi», scrivono gli scienziati.
Temono che l’intelligenza artificiale sia sfruttata per realizzare droni e altri robot capaci di individuare un obiettivo e ucciderlo al di fuori del controllo umano. È un tipo di arma terribile in sé, ma che in mano a terroristi e governi poco interessati ai diritti umani rappresenta una minaccia globale alla sicurezza.
Toby Walsh, il promotore del boicottaggio, è uno degli scienziati più impegnati nella bioetica dell’intelligenza artificiale. Con una nutrita schiera di colleghi si batte perché l’intelligenza artificiale non venga utilizzata a scopi militari. Ha partecipato alla stesura dei «23 principi» etici che dovrebbero ispirare la ricerca nel campo dell’intelligenza artificiale, stabiliti nel gennaio del 2017 ad Asilomar, California (vedi scheda, ndr). Il luogo non è stato scelto a caso: nel 1973, ospitò la conferenza in cui furono stabilite le linee guida bioetiche per l’ingegneria genetica. È anche uno degli esponenti della campagna Stop Killer Robot per la messa al bando dei robot in grado di uccidere anche senza un umano che prema il grilletto. La campagna, che coinvolge diversi scienziati italiani di punta, ha trovato una risposta tiepida dal nostro parlamento nonostante la presenza di deputati esperti. Invece di proporre una moratoria internazionale sulle armi a controllo autonomo, come chiedeva una mozione dell’informatico e deputato montiano Stefano Quintarelli, nel dicembre 2017 la Camera ha approvato un testo più blando redatto dalla senatrice Carrozza del Pd (docente e ricercatrice proprio nel campo della robotica) che però non impegna l’Italia ad alcuna iniziativa autonoma.

L’USO MILITARE dell’intelligenza artificiale sta dunque spaccando la comunità scientifica, sia nell’ambito della ricerca accademica che nell’industria. Pochi giorni fa, infatti, è stata divulgata una petizione firmata da ben 3100 dipendenti di Google e diretta all’amministratore delegato Sundar Pichai contro il «Progetto Maven»: la fornitura al Pentagono di un sistema di sorveglianza basato sull’intelligenza artificiale da utilizzare nel riconoscimento di bersagli militari, in cui è coinvolta l’azienda. I dipendenti chiedono che il progetto venga cancellato in omaggio al motto fondatore di Google «don’t be evil», «non essere cattivo». Per simili questioni di reputazione, Google aveva comprato e rivenduto solo tre anni dopo la società Boston Dynamics, produttrice di robot militari inquietanti sin dall’aspetto fisico.
Se attori di primissimo piano come Kaist e Google partecipano al trasferimento in campo militare delle conoscenze acquisite nel campo dell’intelligenza artificiale, è segno che i legame tra informatica e industria bellica è più stretto di quanto si pensi. La stessa petizione dei dipendenti Google ricorda come al progetto Maven partecipino anche altri colossi, come Microsoft e Amazon. E la maggior parte delle analisi storiche concordano nell’attribuire il successo della Silicon Valley in gran parte agli investimenti pubblici risalenti agli anni ’60, quando piccole e grandi imprese iniziarono a sviluppavare hardware e software a uso «duale» civile e militare. Il legame non si è interrotto nemmeno negli anni ’70, quando in California esplose la cultura hyppie, pacifista e libertaria. Anzi: personaggi mitici come Steve Jobs venivano proprio da quella controcultura. L’informatica sembrò a molti un terreno su cui costruire nuove relazioni sociali e produttive, da cui sarebbero nate l’etica hacker e il capitalismo delle start-up.

ALLO STESSO TEMPO, forniva innovazioni utilissime ai generali. Fu il lato oscuro del tanto celebrato ’68 statunitense, in cui pochi seppero riconoscere per tempo il rilancio del capitalismo americano colpito dallo shock petrolifero. L’ambigua relazione tra computer e carri armati è proseguita fino ad oggi, con qualche incidente di percorso come lo scandalo Snowden di qualche anno fa, la recentissima «scoperta» dell’uso politico dei dati raccolti sui social network e le proteste anti-militariste degli esperti di intelligenza artificiale.
I robot a controllo autonomo, tuttavia, rispetto ad altre tecnologie duali sollevano questioni sociali più profonde. La questione di una maggiore vigilanza sull’intelligenza artificiale, infatti, viene sollevata sempre più spesso anche a proposito di applicazioni più innocue, come l’auto a guida autonoma. Sull’ultimo numero della rivista Nature, una delle voci «ufficiali» della comunità scientifica globale, è stato pubblicato un commento intitolato esplicitamente Le persone devono mantenere il controllo dei veicoli a guida autonoma, firmato da Ashley Nunes, Bryan Reimer e Joseph F. Coughlin del Massachusetts Institute of Technology di Boston.

L’ARTICOLO SOSTIENE, dati alla mano, come la pressione per l’introduzione dei veicoli a guida autonoma abbia indotto molti stati a allentare le norme di sicurezza invece di introdurne di più stringenti.
I tre ricercatori sollevano la questione, finora abbastanza ignorata, sulla trasparenza degli algoritmi che governano i veicoli a guida autonoma. Da un lato, norme come il Regolamento generale per la protezione dei dati (valido in Europa dal prossimo 25 maggio) prevedono che gli utenti conoscano i principi secondo cui le macchine prendono le loro decisioni. Ma il cosiddetto «deep learning», l’algoritmo che sta al nocciolo di molti sistemi attuali di intelligenza artificiale, non risponde in base a norme facilmente identificabili da parte dello stesso sviluppatore, anche perché può generare comportamenti diversi a seconda dei dati con cui è stato «allenato». In altre parole, due macchine a guida autonoma poste nella stessa situazione possono comportarsi in modo diverso e autonomo persino da chi le ha progettate. Perciò, anche norme che devono ancora entrare in vigore, nonostante le garanzie apparenti, rischiano di risultare obsolete.

LA PRESA DI POSIZIONE di Nature arriva in un momento non casuale, a poche settimane di distanza dal primo investimento mortale di un pedone da parte di un’auto a guida autonoma in Arizona. Ma colpisce perché gli investimenti industriali in questo settore foraggiano anche molta ricerca accademica, in cui lavora la maggior parte dei lettori di Nature. Grazie all’intelligenza artificiale e alla genetica, evidentemente, sta tornando di attualità un tema antico, da molti considerato addirittura polveroso, come quello del controllo politico sulla ricerca. Sostanzialmente abbandonato negli anni ’80, oggi rappresenta una sfida per l’industria che invece vorrebbe massima libertà di azione. Ma sfida anche la politica perché riesumare nel 2018 gli slogan di ieri sarà un esercizio rassicurante, ma del tutto inutile.

SCHEDA

Lo scorso anno, il «Future of life Institute» ha organizzato una conferenza intitolata «Beneficial AI» (Intelligenza artificiale e benefica) sulle implicazioni dell’introduzione di macchine a controllo autonomo nella vita quotidiana. I ricercatori hanno stilato 23 principi affinché l’intelligenza artificiale si riveli un’opportunità, e non una minaccia. Tra i punti evidenziati: oltre a rifiutare lo sviluppo di armi letali a controllo autonomo, la ricerca scientifica deve essere accompagnata da sufficienti finanziamenti per studiare l’impatto sociale dell’intelligenza artificiale. Inoltre, macchine in grado di auto-migliorarsi e auto-replicarsi devono essere sottoposte a limiti e controlli molto severi. Infine, le macchine a intelligenza artificiale devono essere al servizio dell’umanità e non di una nazione o singola impresa.

Vedi anche RID su Campagna Stop Killer Robots:

E’ ormai necessario un Trattato internazionale per vietare i “Killer robots”

Gli Stati si incontrano per la quinta volta in sede ONU per discutere di armi completamente autonome

Sta ormai scadendo il tempo concesso ai Governi per riuscire ad impedire lo sviluppo di sistemi d’arma capaci di selezionare gli obiettivi e procedere da soli con un attacco, senza un controllo umano significativo. E’ questa la posizione espressa oggi dalla Campagna “Stop Killer Robots” (di cui fa parte anche Rete Italiana per il Disarmo) a margine del quinto incontro che la “Convenzione sulle armi convenzionali” (CCW) dedica ai sistemi di armi autonome e letali da oggi e fino al 13 aprile alle Nazioni Unite (ONU).

“Per evitare un futuro in cui i robot killer, non gli umani, decidano a chi sparare i Governi devono agire ora”, ha detto Mary Wareham di Human Rights Watch, coordinatrice della Campagna Stop Killer Robots. “I Governi dovrebbero darsi da fare per negoziare un Trattato internazionale che vieti le armi completamente autonome. Qualsiasi misura più debole di questa sarà destinata al fallimento”.

La Campagna “Stop Killer Robots” è una coalizione globale di organizzazioni non governative che ha lavorato a partire dall’aprile 2013 per vietare preventivamente la produzione e l’utilizzo delle armi completamente autonome “FAWS” (note anche come sistemi d’arma autonomi letali “LAWS”). La campagna fondamentalmente si oppone al fatto che sia permesso a delle macchine di disporre della vita umana sul campo di battaglia o negli intervento di polizia, nel controllo delle frontiere e in altre circostanze similari.

Molti Stati hanno espresso forte desiderio di iniziare a negoziare una nuova legge internazionale nell’ultima riunione della CCW dello scorso Novembre 2017. Molti sono d’accordo con la necessità di mantenere una qualche forma di controllo umano sui futuri sistemi d’arma e molti dicono di non avere “piani” per acquisire o sviluppare armi completamente autonome. Ad oggi, 22 paesi hanno inequivocabilmente chiesto che sia definito un divieto sulle armi completamente autonome.

“Gli Stati dovrebbero rendere esplicito che è necessario un controllo umano significativo sui singoli attacchi e che i sistemi di armi che operano senza tale controllo umano dovrebbero essere proibiti”, ha affermato Richard Moyes dell’ONU inglese Article 36. “Affinché il controllo umano sia considerabile come significativo la tecnologia del sistema deve essere prevedibile, l’utilizzatore umano deve possedere informazioni rilevanti e deve esserci il potenziale per un giudizio ed intervento umano tempestivo”.

Diversi sistemi di armi autonome con livelli decrescenti di controllo umano sono attualmente in uso e sono sviluppati da forze armate dotate di capacità high-tech tra cui Stati Uniti, Cina, Israele, Corea del Sud, Russia e Regno Unito. La preoccupazione è che i progressi nell’intelligenza artificiale e un più facile accesso a parti tecnologiche rendano sempre più pratico progettare sistemi di armi che possano definire un bersaglio e attaccarlo senza alcun controllo umano significativo. Se la tendenza verso l’autonomia dei sistemi d’armamento continuerà gli umani potrebbero iniziare ad essere estromessi dal ciclo decisionale per determinate azioni militari, forse mantenendo solo un ruolo limitato di supervisione o semplicemente impostando ampi parametri generali della missione.

In una Nota informativa rilasciata prima della riunione della CCW la Campagna Stop Killer Robots invita gli Stati a identificare i “punti di contatto” rilevanti dell’interazione uomo/macchina nei sistemi d’arma e spiegare come il controllo venga applicato sui sistemi di armamento esistenti, specialmente quelli con alcune funzioni autonome o automatiche. Sebbene la formulazione esatta delle definizioni giuridiche di un eventuale Trattato dovrebbe venire finalizzata durante i futuri negoziati la Campagna incoraggia gli Stati ad elaborare le caratteristiche chiave per una definizione operativa di sistemi di armi autonomi letali – basata sul fatto che essi andrebbero ad operare senza un controllo umano significativo nelle “funzioni critiche” dell’identificazione, selezione e utilizzo della forza sugli obiettivi.

“Qualsiasi accordo internazionale diverso da un Trattato legalmente vincolante sarà insufficienti per prevenire un futuro con la presenza concreta di robot killer” afferma Miriam Struyk dell’ONU olandese PAX. “Ci aspettiamo che gli Stati esprimano la loro ferma determinazione nell’evitare di disumanizzare l’uso della forza decidendo negoziare una nuova legge internazionale che garantisca un controllo umano significativo”.

Francia e Germania hanno proposto che la CCW approvi una dichiarazione politica non giuridicamente vincolante per affermare che gli esseri umani dovrebbero “prendere tutte le decisioni definitive riguardo all’uso della forza letale e continuare a esercitare un controllo sufficiente sui sistemi di armi letali che usano”. Un numeroso gruppo di Stati appartenenti al Movimento dei non allineati chiede lo sviluppo di uno “strumento internazionale giuridicamente vincolante che stabilisca divieti e regolamenti sui sistemi d’arma autonomi letali”.

La richiesta della Campagna Stop Killer Robots è quella di giungere ad uno strumento giuridicamente vincolante che proibisca lo sviluppo, la produzione e l’uso di sistemi di arma completamente autonomi entro la fine del 2019. Altre strade ed opzioni diplomatiche dovrebbero essere esplorate se il CCW non si rivelerà all’altezza di questo compito come consesso internazionale. La Campagna incoraggia inoltre gli Stati ad adottare rapidamente legislazioni nazionali che vietino i sistemi d’arma completamente autonomi.

L’Italia in questi anni ha espresso una posizione contraria ad un divieto internazionale o ad una regolamentazione delle LAWS, affermando che “l’adozione di un divieto totale o di altri tipi di limitazioni generali su tecnologie completamente autonome sarebbe prematura”, ma ritenendo “molto prezioso continuare le discussioni nel quadro del CCW”. L’Italia ritiene inoltre che l’attuale legislazione umanitaria internazionale sia sufficiente per valutare la legalità di entrambi i tipi di sistemi caso per caso. Il Parlamento si è occupato della questione solo in un caso, lo scorso dicembre 2017, discutendo una mozione dell’On. Stefano Quintarelli che proponeva la messa al bando delle armi autonome: “Putroppo tale mozione non è stata approvata – commenta Francesco Vignarca coordinatore di Rete Disarmo – mentre invece il voto favorevole è andato su testi troppo generici, anche se nella direzione da noi auspicata. L’intenzione di Rete Disarmo è quella di lavorare affinché nel 2018 la questione dei “Killer Robots” sia affrontata in maniera approfondita in ambito parlamentare”. Un punto specifico sul tema è stato inserito nella piattaforma “Un futuro di pace e disarmo” che la RID ha sottoposto ai candidati delle scorse Elezioni politiche.

Questa è la seconda riunione del gruppo di esperti governativi CCW sui sistemi d’arma autonomi letali e la quinta volta dal 2014 che gli Stati si sono incontrati in ambito CCW per discutere di questo problema.

La riunione CCW non sarà trasmessa in diretta via web o con altri mezzi, ma le dichiarazioni nazionali selezionate verranno pubblicate online e gli attivisti forniranno aggiornamenti in tempo reale sui social media, in particolare su Twitter, utilizzando l’hashtag #CCWUN.

RID, 09.04.2018

Vedi anche:

Killer Robot, Iperdroni e Super-Umani per il NWO e le guerre globali del XXI secolo