L’economia verso l’industria militare: “attenzione a dove finisce la tecnologia”

11 Settembre 2018, di Francesco Puppato

Se addirittura l’azienda che come slogan per due decenni ha avuto la frase “don’t be evil” (non essere malvagio), perché impregnata dello stile americano di lavorare per distribuire conoscenza, accessibilità e buoni servizi al mondo intero, ha ceduto al business militare, significa davvero che le cose, nel settore della difesa, stanno cambiando.

Google, infatti, aveva accettato nel 2017 la commessa “Project Maven”, la quale prevedeva una collaborazione col Pentagono per l’utilizzo dell’intelligenza artificiale in ambito militare, sia difensivo che offensivo.

La cosa ha suscitato molta agitazione sia tra i dipendenti che tra gli esperti del settore: poche ore dopo l’accettazione della commessa si sono dimesse in segno di protesta una dozzina di persone, almeno altri 4 mila dipendenti su un totale di 85 mila avevano partecipato ad una petizione inviata all’amministratore delegato Sundar Pichai per chiedere il ritiro dell’azienda dalla commessa e 688 docenti e ricercatori da tutto il mondo si sono schierati in supporto dei lavoratori contro la “militarizzazione di Google”.

Più nel dettaglio, in ambito offensivo si parla di “scegliere, colpire ed abbattere”; ne consegue che il timore dei ricercatori sia quello di contribuire a creare macchine autonome capaci di uccidere e addirittura di decidere autonomamente chi e come uccidere.

Se da un punto di vista si crea lavoro e si sviluppano nuove tecnologie all’avanguardia, dall’altro vi è una sempre maggior tendenza ad unire industria civile e militare. Si sta dunque assistendo ad un uso sempre maggiore di prodotti dell’industria civile in ambito militare; e sebbene questo implichi maggiori investimenti in ricerca e sviluppo ben finanziati dal settore pubblico della difesa, dall’altro si va verso un’ibridazione dei due settori senza precedenti.

Ne abbiamo parlato con Andrea Lucietti, dottore in Scienze Internazionali e Diplomatiche, già tutor didattico presso l’Università degli Studi di Bologna e coordinatore del centro studi di Nina International:

“Nella storia l’industria civile ha sempre fornito ottimi spunti a quella militare per lo sviluppo di armamenti. Tuttavia, come giustamente ha sottolineato lei, viviamo una sinergia inedita. Mentre prima le imprese civili di qualche interesse per il settore difesa venivano inglobate dai complessi statali che ne sfruttavano il know how con livelli di sicurezza adeguati, oggi si tende ad affidare commesse dirette a grandi corporation che si occupano di tecnologia (e l’affaire Google ne è un chiaro esempio)”.

“L’Intelligenza Artificiale è il fulcro del nuovo dibattito che ruota attorno alle armi del futuro, le cosiddette “armi autonome”. Si tratta di un tipo di dispositivo che, una volta programmato, può essere attivato e inviato in teatro operativo aspettandosi che esso, autonomamente e dunque senza un significativo intervento umano, possa portare a termine la sua missione (che può prevedere anche l’eliminazione di un bersaglio umano)”.

Al momento, esistono già dispositivi che, una volta attivati, non necessitano di ulteriori interventi da parte di un operatore umano per poter svolgere la propria missione. Vi sono munizioni cosiddette “fire and forget” che acquisiscono il proprio bersaglio e lo “seguono” una volta lanciate ma vere e proprie “armi autonome” sono le “loitering munitions” che hanno come obiettivo quello di perlustrare una fetta di terreno in cerca di bersagli (postazioni radar, di norma) per poi eliminarli o tornare alla base qualora non trovi nulla.

“Non siamo ancora arrivati a creare armi di questo tipo che abbiano come obiettivo l’essere umano ma quanto siamo lontani da questo scenario? Mi sento di dire abbastanza ma non poi così tanto da non iniziare a pensarci”.

“Ovviamente il dibattito montante sul tema è focalizzato su obiezioni etiche e legali. Le Nazioni Unite da 5 anni ormai organizzano panel di esperti per analizzare la prospettiva di una sempre maggiore autonomia nel settore degli armamenti. Organizzazioni Non Governative come Amnesty International hanno promosso petizioni per bandirne addirittura lo studio. Non mi sento di essere tanto assolutista”.

Ci sono tante buone ragioni che suggeriscono come l’intelligenza artificiale applicata al settore militare possa essere positiva (meno danni collaterali, maggior ottemperanza delle regole d’ingaggio, eliminazione del carattere passionale tipico dell’uomo…).

Ci sono, però, anche motivi per andarci cauti: l’accesso a queste tecnologie di gruppi terroristici non è un’ipotesi così remota. Hackeraggi di grandi compagnie sono già avvenuti. Hanno trovato solo film alla Sony ma negli archivi di Google; un domani, cosa potrebbero trovare ?”