Il mercato delle intelligenze artificiali usate per scopi bellici vale poco meno di 14 miliardi di dollari. Si stima che questo valore potrebbe raddoppiare velocemente. Ecco perché le aziende che sviluppano le ia nella Silicon Valley mostrano sempre più interesse per il settore militare. Sul sito della Scale Ai, un’azienda che fornisce dati etichettati e per l’addestramento delle intelligenze artificiali, c’è un’intera sezione dedicata all’uso delle ia in questo ambito, dove si dichiarano anche collaborazioni con la casa bianca e l’esercito americano.

Gli Stati Uniti dominano, letteralmente, questo mercato – esattamente come dominano quello delle intelligenze artificiali generative. È probabile che assisteremo a una crescita degli investimenti anche nel mondo asiatico, guidata dalla Cina, dall’India e dal Giappone.

Tra le attività che le ia possono svolgere in campo militare ci sono compiti di monitoraggio e sorveglianza, analisi dei dati che provengono dai sensori – di ogni genere: sensori di movimento, telecamere, satelliti, droni –, individuazione degli obiettivi militari. Le ia possono essere incorporate in macchinari già esistenti e in veicoli a movimento autonomo.

Come scrive il giornalista Patrick Tucker su Defense One, l’uso di queste tecnologie aumenta “le probabilità che civili innocenti diventino bersagli a causa di dati errati”. O a causa di scelte umane, come abbiamo visto succedere a Gaza.

Tucker si basa su uno studio recente dell’Ai Now Institute. Secondo le ricercatrici che lo hanno firmato, il problema inizia con le tecnologie dual-use, cioè quelle che si possono usare sia per scopi civili sia per scopi militari. I modelli che le aziende della Silicon Valley propongono all’apparato militare, infatti, non sono quasi mai specifici per l’ambito bellico, visto che ci sono pochi dati a disposizione. Sono, invece, quelli addestrati su enormi quantità di dati disponibili pubblicamente e spesso contengono informazioni personali raccolte senza controlli rigorosi.

Capire la questione del dual-use è fondamentale. Un modello predittivo usato per scopi di raccomandazione, per dirci quale canzone dovrebbe piacerci, quale sarà il prossimo video di YouTube o la prossima serie tv che dovremmo proprio guardare, quale libro vorremmo comprare sulla base dei nostri gusti, viene fatto lavorare in un contesto dove il rischio legato a un errore è molto basso. Se il modello sbaglia, al massimo, ci suggerisce qualcosa che non riscontra i nostri gusti.

Ma un errore, un falso positivo in ambito bellico è un altro paio di maniche: significa vite umane messe a repentaglio nel migliore dei casi, se non addirittura trattate come se fossero senza valore. Lo studio cita esplicitamente i due programmi dell’esercito israeliano Lavender e Where’s Daddy (letteralmente, “Lavanda” e “Dov’è papi?”: fin dalla scelta dei nomi si capiscono molte cose). A partire dai dati di addestramento, questi due programmi generano elenchi di persone sospette che diventano bersagli. Poi gli umani decidono di quale tasso d’errore ci si può accontentare pur di arrivare all’obiettivo.

Non solo. I dati di addestramento non sono trasparenti: questo rende i controlli molto difficili e può anche permettere manipolazioni da parte di malintenzionati fin dal dataset di partenza. Persino la marina degli Stati Uniti ha messo in guardia contro l’uso di modelli commerciali in scenari operativi militari.

Quando si parla di intelligenze artificiali in molti si affannano in un dibattito etico che sembra essere spesso fuori fuoco e che soffre di eccessive semplificazioni. Pare necessario, invece, occuparci dell’uso di questi strumenti negli scenari dove il rischio reale per le vite umane è alto e concreto. Anche perché chi già investito tanto su queste tecnologie ha un vantaggio enorme, come ha sottolineato anche il premio nobel Geoffrey Hinton.

Questo testo è tratto dalla newsletter Artificiale.

Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it