Schegge di vangelo a cura di don Stefano Bimbi
Beata Vergine Maria di Lourdes a cura di Ermes Dovico
sicurezza

Google svolta sull'IA nel campo militare. E non è una bella notizia

Ascolta la versione audio dell'articolo

Google ha aggiornato i suoi principi sull’intelligenza artificiale, rimuovendo l’impegno a non utilizzarla per scopi militari o di sorveglianza. Una decisione che porta con sé numerosi rischi. Vediamo quali. 

Attualità 11_02_2025

Recentemente, Google ha aggiornato i suoi principi sull’intelligenza artificiale, rimuovendo l’impegno a non utilizzarla per scopi militari o di sorveglianza. Questa modifica rappresenta un cambiamento significativo rispetto a quanto assunto dall’azienda nel 2018 quando, in risposta alle critiche per la partecipazione al “Project Maven” del Pentagono, aveva dichiarato che non avrebbe sviluppato tecnologie IA per armi o sorveglianza.

La decisione di eliminare queste restrizioni è stata giustificata da Google con la necessità di adattarsi a un contesto geopolitico in evoluzione e di collaborare con governi e aziende per garantire la sicurezza nazionale. I nuovi principi enfatizzano l’importanza di una supervisione appropriata, della due diligence e dell’allineamento con il diritto internazionale e i diritti umani, pur lasciando aperta la possibilità di esplorare applicazioni sensibili dell’IA.

Questa svolta ha suscitato preoccupazioni sia all’interno che all’esterno dell’azienda. Alcuni dipendenti hanno espresso il timore che Google possa compromettere i propri standard etici, ricordando le proteste interne del 2018 contro il coinvolgimento dell’azienda in progetti militari. Allo stesso tempo, Bloomberg ha evidenziato i rischi associati a questa decisione, suggerendo la necessità di un intervento governativo per regolamentare l’uso dell’IA in ambito militare.

Parallelamente, altre aziende tecnologiche stanno rafforzando le loro collaborazioni con le agenzie di difesa. Ad esempio, Anthropic, un laboratorio di IA sostenuto da Google, ha annunciato nel novembre 2024 una partnership con Palantir e Amazon Web Services per fornire i suoi modelli Claude alle agenzie di difesa e intelligence degli Stati Uniti. Questa collaborazione mira a utilizzare l’IA per migliorare l’analisi dei dati e supportare le operazioni governative.

Se Google dovesse decidere di fornire attivamente la propria IA per scopi militari, le possibili applicazioni sarebbero molteplici. Anzitutto, con la capacità di elaborare enormi quantità di dati in tempo reale, l’IA di Google potrebbe supportare le operazioni di intelligence militare, identificando schemi nei movimenti delle truppe nemiche, prevedendo azioni ostili e analizzando comunicazioni crittografate. Inoltre, possedendo tecnologie avanzate per il riconoscimento facciale e la visione artificiale, Google potrebbe, in un contesto di guerra, identificare facilmente bersagli caldi e monitorare la popolazione.

Sebbene l’azienda non abbia ancora annunciato esplicitamente il proprio coinvolgimento in armi autonome, la rimozione del divieto gi Google apre la possibilità di sviluppare software di guida avanzata per droni militari o altri sistemi robotici da combattimento. Infine, potrebbe potenziare attacchi informatici o proteggere infrastrutture critiche da intrusioni nemiche. La combinazione di machine learning e cybersecurity avanzata potrebbe rivelarsi un’arma fondamentale nei conflitti moderni.

Dal punto di vista politico, la decisione di Google potrebbe trovare il favore del presidente Donald Trump, noto per le sue posizioni liberiste e il supporto alle industrie militari. Con un contesto geopolitico sempre più instabile e la crescente competizione con Cina e Russia, gli Stati Uniti potrebbero incentivare il coinvolgimento delle Big Tech nella difesa nazionale.

In ogni caso, la decisione di Google segna un punto di svolta nel dibattito sull’etica dell’intelligenza artificiale. Se in passato l’azienda si era presentata come un baluardo contro l’uso bellico delle tecnologie avanzate, oggi il suo approccio appare più pragmatico e orientato alla realpolitik.

La domanda ora è: chi controllerà l’uso di queste tecnologie? Se il governo americano dovesse intervenire, come suggerisce Bloomberg, potrebbe imporre regole più stringenti per evitare un uso indiscriminato dell’IA nei conflitti. Tuttavia, senza una regolamentazione chiara, il rischio è che l’IA sviluppata da Google e altre aziende venga impiegata in modi che potrebbero minacciare la sicurezza globale.