Un’accusa diretta al sistema Palantir e all’industria della guerra algoritmica
Se decide l’algoritmo, chi è responsabile? Il massacro di Minab attribuito all’errore tecnico di un sistema blindato da segreti industriali
Riceviamo e pubblichiamo il contributo dell'amico Orazio Di Mauro
La tragedia di Minab non è un incidente tecnico isolato ma la manifestazione più evidente di un sistema progettato per massimizzare la velocità di acquisizione degli obiettivi, contrabbandandola per efficacia, e minimizzare le responsabilità dei decisori militari. I fatti sono noti. Il sistema Maven, integrato con il modello Claude di Anthropic, ha prodotto in poche ore centinaia di obiettivi prioritari e coordinate operative che sono poi state eseguite su larga scala al momento del primo attacco statunitense, israeliano all’Iran. Per comprendere cosa è realmente accaduto, dobbiamo conoscere come il sistema Palantir trasforma dati in ordini di fuoco e perché questo sistema è pericoloso.
Palantir, che ha una architettura proprietaria, costruisce piattaforme che aggregano flussi multipli di intelligence in un’unica interfaccia; questo crea dipendenza operativa e rende difficile rimuovere o sostituire componenti problematici senza interrompere l’intera catena decisionale.
Le raccomandazioni a colpire un punto dello schieramento avversario non sono semplici output, non sono solo prodotti di linee complesse che combinano modelli statistici, regole proprietarie e pre‑processing umano, ma anche di algoritmi non trasparenti, il più delle volte. Quando un sistema raccomanda migliaia di bersagli in poche ore, la trasparenza diventa essenziale; invece, la segretezza commerciale e militare nasconde i passaggi critici che avrebbero potuto rivelare la presenza di dati obsoleti o contraddittori nelle linee usate da Palantir. Sono gli incentivi che premiano la rapidità e il numero di obiettivi identificati, creando un incentivo strutturale della quantità sull’accuratezza e verificando un contesto bellico. Questo si traduce in una pressione sistemica a fidarsi dell’algoritmo piuttosto che a sottoporre ogni proposta a controlli umani rigorosi.
Questi fallimenti tecnici concreti, derivanti da dati imprecisi e non aggiornati, definiti “allucinazioni” dei modelli procurano errori esplosivi quando si tratta di obiettivi non compiutamente acquisiti. La cosa è talmente importante che, per esempio, le artiglierie hanno gruppi denominati “gruppo acquisizione obiettivi”. Palantir può sintetizzare e completare informazioni, ma senza la garanzia della veridicità le inferenze portano ad alti tassi di errore significativi. Questi fatti sono ben documentati e riconosciuti dagli esperti. L’uso di Claude per generare coordinate e giustificazioni legali ha compresso settimane di analisi in minuti, amplificando gli errori anziché contenerli.
La domanda è: chi risponde quando l’algoritmo sbaglia? La responsabilità è legale e contrattuale, Palantir fornisce strumenti, ma il committente militare esegue gli attacchi; la catena di responsabilità è volutamente sfumata. Contratti, clausole di non divulgazione e classificazione impediscono verifiche indipendenti e ritardano l’attribuzione di responsabilità. Il controllo umano ridotto a formalità. La retorica del “controllo umano” è spesso mantenuta come etichetta mentre, nella pratica, gli operatori si limitano a ratificare output già prodotti dall’IA, senza avere strumenti o tempo per una verifica approfondita. Questo non è un problema di singoli operatori, ma di progettazione del sistema e delle procedure operative.
Palantir ha però una serie di elementi critici:
- Dipendente da fornitori privati con interessi commerciali, la sicurezza nazionale viene delegata a piattaforme che perseguono crescita e rinnovi contrattuali;
- Manca di audit indipendenti e accesso ai log: senza audit esterni non è possibile ricostruire decisioni né correggere bias sistemici;
- Ha procedure operative che premiano throughput. La pressione a generare target rapidi riduce la soglia di verifica umana;
- L’integrazione di modelli generativi non certificati per compiti critici è tecnicamente e eticamente irresponsabile. Usare LLM per giustificazioni legali o per coordinate operative non aiuta la trasparenza.
Sarebbero necessarie misure urgenti e non negoziabili per evitare nuove Minab. In sostanza sono necessari audit forensi e accesso ai log con esperti civili, legali e tecnici che possano ricostruire le catene decisionali. Urgono regole di progettazione obbligatorie, data‑provenance, versioning dei dataset, timestamp obbligatori e priorità automatica ai dati visivi più recenti. Indispensabile il veto umano effettivo. Ogni proposta di strike deve passare per un controllo umano con potere reale di blocco e tempo adeguato per la verifica. Non deve mancare mai. La responsabilità contrattuale deve essere chiara, con clausole che rendano i fornitori responsabili per errori dovuti a sistemi difettosi e a pratiche di sviluppo negligenti.
In conclusione il sistema Palantir non è solo tecnologia, è politica e governo degli uomini sul campo di battaglia. Palantir non deve essere visto come un mero fornitore di software. È un attore che plasma pratiche militari, incentivi e procedure decisionali. La sua tecnologia ha mostrato come la combinazione di opacità, incentivi di mercato e compressione temporale possa trasformare errori tecnici in massacri. Se non si interviene con misure di controllo dei militari sul campo e si ampia la trasparenza e responsabilità legale, la prossima Minab sarà solo una questione di tempo.