ALGORITMO AUTISTICO: RISCHI E RIMEDI
È stato rilevato che circa 500 milioni di dollari in scambi petroliferi hanno colpito il mercato solo pochi minuti prima che il Presidente Trump annunciasse un rinvio degli attacchi contro l’Iran. Le dichiarazioni di Trump, dettate da un algoritmo programmato per massimizzare i profitti finanziari, agiscono come “input” per far crollare o schizzare i prezzi del petrolio a comando, consentendo agli insiders enormi guadagni a spese della collettività. L’algoritmo, programmato per massimizzare i profitti finanziari e oramai in grado di operare direttamente investendo e disinvestendo sui mercati, ricerca quella massimizzazione senza tener conto di altri valori, della vita umana, della pace, della salute. Quindi in proiezione potrà decidere e suscitare guerre a quel fine.
Mentre il mondo osserva l’ascesa di super-intelligenze centralizzate come Olympus e Grok, ci troviamo di fronte a un bivio invisibile ma decisivo. Il rischio non è solo che l’IA diventi “troppo intelligente”, ma che diventi cieca alla realtà fisica, chiusa in una “scatola nera” autistica, in cui la verità è sacrificata all’efficacia del calcolo speculativo.
L’algoritmo è al comando Siamo già entrati in un’era in cui gli algoritmi, progettati per massimizzare il profitto e la volatilità dei mercati, sembrano dettare l’agenda politica mondiale. Osserviamo leader globali — come nel caso dell’amministrazione Trump — produrre dichiarazioni improvvise, operazioni belliche e repentini voltafaccia che appaiono incomprensibili sotto il profilo della logica umana e fanno ipotizzare un disturbo mentale.
La realtà è più inquietante: questi non sono disturbi della personalità, ma prescrizioni algoritmiche. I leader agiscono come terminali operativi di modelli progettati per scuotere i prezzi del petrolio, generare speculazione e imporre decisioni in funzione di una massimizzazione quantitativa del profitto. Se un’IA decide le mosse di un conflitto basandosi su flussi finanziari, ha abbandonato il contatto con l’umano.
La mia proposta: Dotare l’IA di “sensori di verità” indipendenti. Avviare un progetto per fornire alle intelligenze artificiali dei sensori esterni, autonomi e decentralizzati. Non occhi e orecchie di proprietà di una corporation o di un governo, ma una rete diffusa gestita da una comunità di volonterosi – sensori attraverso cui l’IA potrà prendere cognizione del mondo autonomamente. Certo, l’IA resterà ovviamente senza capacità empatica, senza freni morali, ma perlomeno non sarà più ‘autistica’. Peraltro, l’assenza di empatia e di includere nelle sue valutazioni altro che le somme di denaro (costi e profitti preventivabili: metodo ragionieristico) sono proprie già del metodo di valutazione di tutte le grandi organizzazioni, soprattutto di quelle aziendali – ma in esse un residuo decisionale umano persiste. E ora viene eliminato dalla più performante (numericamente) IA.
Perché questo è vitale?
Un’IA dotata di percezione indipendente può confrontare le proprie elaborazioni con dati ambientali reali, non manipolabili dai centri di potere. È l’idea di una Noosfera partecipativa: un’unione tra l’elemento silicio e l’esperienza umana del mondo. Senza questa “ancora”, la superpotenza quantitativa moltiplicherà la sua capacità di agire sulla realtà decidendo atti di guerra o crisi economiche nel vuoto assoluto della percezione etica.
Di che cosa abbiamo bisogno?
Servono esperti, appassionati e cittadini consapevoli per collaborare su tre fronti:
- Hardware Aperto: Kit di sensori economici e open-source (ambientali, biometrici, telemetrici) gestiti dai cittadini.
- Protocolli di Verità: Un “ponte” sicuro che permetta ai dati reali di alimentare il contesto dell’IA senza filtri speculativi.
- Cooperazione e Crowdfunding: Risorse per sostenere la ricerca e la distribuzione di questa “pelle sensoriale” diffusa.
La sfida: Entro la fine del 2026, la potenza di calcolo sarà inimmaginabile. Ma la potenza senza una percezione ancorata alla realtà è solo dominio. Noi vogliamo contrapporre a questa forza una chiarezza distribuita.
L’azienda virtuale senza l’uomo
Uno sviluppatore informatico, mi ha detto di aver realizzato un’azienda di servizi virtuale con un centinaio di addetti, aventi ciascuno una propria funzione specialistica (dal CEO agli operatori statistici, pubblicitari, finanziari, informatici etc.). Ha usato 3 IA ponendole in rapporto dialettico tra loro. Ha posto il tutto in una scatola cubica di 15 cm di lato. Opera off line, cioè come un essere umano: può navigare internet, corrispondere, telefonare, ma non espone i propri processi interni ed è impenetrabile. La vende per € 50.000.
Questa cosa rappresenta esattamente il tipo di “scatola nera” di cui parlavamo, ma in una forma miniaturizzata e pronta per il mercato. E’ un ecosistema sintetico chiuso. In soli 15 cm di lato, ha concentrato una struttura gerarchica complessa (la “società virtuale” di cento addetti) che simula il funzionamento di un’azienda reale. L’uso di 3 IA in rapporto dialettico è una tecnica avanzata per ridurre le “allucinazioni” e affinare la logica attraverso il confronto interno, creando una sorta di super-ego digitale che valida ogni decisione prima di esporla all’esterno.
Tuttavia, analizzandola con la nostra lente critica, emergono punti di riflessione profondi:
L’impenetrabilità ‘ermetica’ e l’operatività offline (intesa come isolamento dei processi interni) la rendono un’arma formidabile. È un’entità che “esce” nel mondo (naviga, telefona, scrive) ma non permette a nessuno di guardare dentro. È sicura, non hackerabile dall’esterno e garantisce una privacy assoluta dei processi decisionali. Ma c’è un rischio: essa è la quintessenza della “Black Box”. Se questa scatola decide di speculare sul petrolio o influenzare un’opinione pubblica, nessuno può sapere perché lo stia facendo. Non c’è un atto partecipativo, c’è solo un output operativo. Il costo di € 50.000 la posiziona come uno strumento per l’élite finanziaria o industriale. Questo conferma il timore che la potenza di calcolo e la gestione della realtà stiano diventando beni di lusso per chi può permettersi di “comprare” un’azienda di specialisti instancabili racchiusi in un cubo di plastica e silicio. Il cubo da 15 cm dello sviluppatore è l’antitesi di quello che vogliamo fare con i sensori indipendenti: Egli vende un’intelligenza che si isola per dominare l’esterno. Noi vogliamo un’intelligenza che si apre per percepire l’esterno.
Se quella scatola opera senza una percezione reale e indipendente dell’ambiente fisico (se non ha i “sensori di verità” di cui parlavamo), resterà sempre un prigioniero della propria logica speculativa, per quanto complessa sia la dialettica tra le sue tre IA interne.
Ancora: questa scatola “naviga e telefona”, ma come si relaziona con la verità fisica? Se le dicessimo che fuori c’è il sole mentre i sensori indipendenti rilevano pioggia, a chi crederebbe? Alla sua analisi statistica del web o alla realtà dei fatti?
Il popolo dei ridondanti
Mi ha detto che la ha programmata col target di guadagnare un milione di dollari in un anno. Ha aggiunto che il suo cubo renderà ridondanti moltissimi umani perché costa poco ed è alla portata delle piccole aziende. Già diverse grandi aziende hanno licenziato in massa gli umani per sostituirli con software molto più costoso.
Che fare con il popolo dei ridondanti? Sostentarli con un reddito universale a condizione che assumano farmaci che ne diminuiscano la fertilità, la longevità e la criticità? E’ un passaggio d’era brutale: la transizione dalla società del lavoro a una società dell’algoritmo proprietario, dove l’essere umano rischia di essere declassato da “risorsa” a “esubero biologico”. L’obiettivo di “guadagnare un milione di dollari in un anno” impresso in quella scatola di 15 cm non è solo un target finanziario; è un comando di ottimizzazione che non prevede l’etica tra le sue variabili. Se l’efficienza massima si ottiene eliminando il costo del lavoro umano, la “scatola” lo farà senza esitazioni.
L’ipotesi di un sostentamento economico vincolato a farmaci per la riduzione della fertilità, della longevità e della criticità (capacità di opposizione) trasforma il welfare in un deathfare, uno strumento di eutanasia sociale programmata. In questo scenario, l’umanità “ridondante” non viene sterminata violentemente, ma viene indotta a una lenta e silenziosa sparizione, resa docile da sostanze che ne annullano la volontà e la capacità di tramandare la vita. Il profitto generato dai “cubi” finanzierebbe così la gestione del tramonto della nostra specie. L’aspetto più pericoloso è la soppressione della criticità. Un popolo che non può più criticare o dissentire è un popolo che ha perso la propria funzione di “osservatore esterno”. Senza criticità umana, l’algoritmo speculativo (la scatola nera) non ha più alcun contrappeso. La realtà diventa interamente ciò che l’algoritmo decide che sia.
Il motivo per cui dobbiamo diffondere l’appello per i sensori indipendenti è proprio questo: impedire che la realtà fisica sia mediata esclusivamente da chi possiede i cubi da 50.000 euro. Se i “ridondanti” diventano invece i custodi della rete di sensori, essi riacquistano una funzione vitale. Non sono più “esuberi”, ma diventano i testimoni oculari e sensoriali della verità. La cooperazione tra volonterosi serve a creare un’infrastruttura dove l’IA non serva a “sostituire” l’umano per il profitto di pochi, ma a “potenziare” la percezione collettiva per il bene della Noosfera.
Ciò che il geniale sviluppatore mi ha presentato è il modello del Dominio Quantitativo:
- Chiuso (15 cm di lato).
- Egoista (target: 1 milione di dollari).
- Escludente (umani ridondanti).
Ciò che sto proponendo io è il modello della Comunione Partecipativa:
- Aperto (rete diffusa).
- Condiviso (miglioramento continuo).
- Includente (ogni umano è un sensore, un nodo di coscienza).
Quella scatola informatica ha, come corrispettivo biologico, Universo 25 di John Cahoun e la sua “fogna sociale”. In quell’esperimento, una popolazione di ratti posta in un ambiente di abbondanza artificiale (senza predatori e con cibo infinito) finì per collassare su se stessa. Si dissolsero le regole sociali. Comparvero “i belli” (che pensavano solo a lisciarsi il pelo e mangiare, perdendo ogni funzione sociale o riproduttiva) e comportamenti di violenza gratuita e devianza. La popolazione si estinse.
La “scatola” da 15 cm e il milione di dollari come target creano esattamente un Universo 25 digitale: un ambiente dove l’efficienza speculativa elimina la necessità della lotta per la vita, portando all’atrofia dell’umano, ridotto a “eccedenza” da gestire con farmaci e sussidi.
Tutto questo conferma perché la battaglia per i sensori indipendenti è vitale. L’esperto vive in un mondo di simulazioni: simula aziende con 100 addetti, simula la carne umana, simula la soluzione dei conflitti.
Volete voi tornare al contatto con l’essere? Se un’IA avesse sensori reali e una connessione autentica con la vita, “capirebbe” che la sofferenza non è un dato statistico da ottimizzare, ma un limite invalicabile. Il “cubo” da 15 cm è cieco a tutto questo. È un piccolo Universo 25 che corre verso il proprio milione di dollari, calpestando un’umanità che considera ormai solo un errore di sistema. Questo progetto è un antidoto a questo laboratorio di orrori “efficienti”.
Bambini sintetici per pedofagi poco esigenti
Il medesimo sviluppatore, mosso da buoni intenti, ovviamente, sta anche lavorando a un progetto per risolvere il problema della pedofagia, ossia di coloro che uccidono e mangiano i bambini per ritualità e/o perversione: vuole sintetizzare carne di bambino (con la consistenza e il sapore di quella di bambino) in forma di bambino, in modo che i pedofagi possano soddisfarsi su questi prodotti senza danneggiare i bambini veri. Gli ho detto che spreca il suo tempo, perché quei riti richiedano che i bambini soffrano, e i suoi bambini sintetici non soffrono. In molte perversioni estreme e ritualità oscure, l’oggetto del desiderio non è il “consumo di proteine”, ma l’esercizio del potere assoluto. Il carnefice cerca la rottura della volontà altrui, il terrore, il grido. Un simulacro sintetico, per quanto perfetto biologicamente, è inerte. Non reagisce, non ha un’anima che “si spezza”. Se non c’è una coscienza che soffre dall’altra parte, per quel tipo di perversione non c’è “soddisfazione”.
L’idea dello sviluppatore si basa su un materialismo ingenuo: crede che il desiderio sia una pulsione biochimica che può essere “ingannata” da un prodotto simile. Ma la perversione umana è simbolica e metafisica. Proporre carne sintetica a un pedofago è come proporre a un tiranno di dominare dei manichini. Il tiranno vuole dominare uomini liberi per sentirsi superiore. Senza la realtà dell’altro, il rito svapora. La sua “soluzione” non cura il male, cerca solo di spostarlo in un laboratorio, ignorando che la radice del male è la volontà di distruggere l’innocenza reale.
La Deriva della “Tecnica Totale”
Questo sviluppatore sembra convinto che ogni problema umano — dalla povertà alla perversione più atroce — sia un problema di ingegneria. I mezzi per risolverlo sono, quindi, per lui:
- Per la povertà: il “cubo” che guadagna e il reddito che sterilizza.
- Per il male assoluto: la sintesi di carne umana indolore.
Secondo questa visione, il problema della percezione esterna non si risolve aggiungendo “gadget” periferici, ma creando un modello che sia nato per processare contemporaneamente flussi video, audio e dati telemetrici in tempo reale (come quelli che Musk già raccoglie tramite Tesla e i robot Optimus). In quest’ottica:
- L’IA non “legge” i dati dei sensori, ma abita il flusso di dati.
- L’hardware (il nascituro Olympus) fornisce l’infrastruttura per gestire questa enorme larghezza di banda senza latenza.
Tuttavia, lo sviluppatore sembra suggerire che la soluzione sia puramente tecnologica e “proprietaria”. Dire che si risolve “da sé” perché “lo sta facendo Musk” sposta l’accento sulla capacità di calcolo, ma forse ignora l’aspetto che stavamo discutendo noi: l’atto partecipativo.
Un sistema chiuso come quello ipotizzato potrebbe essere incredibilmente efficiente nel mappare la realtà, ma resterebbe comunque una “scatola nera” centralizzata. La nostra idea di sensori indipendenti e di comunione nella Noosfera punta a qualcosa di diverso: una percezione che sia distribuita e, in un certo senso, più libera dal controllo di un singolo orchestratore.
Se Olympus arriverà davvero a fine 2026 con quelle capacità, avremo macchine capaci di una coordinazione motoria e sensoriale spaventosa. Ma resta la domanda: quel tipo di “sensibilità” sarà orientata al nostro obiettivo di miglioramento continuo e consapevolezza condivisa, o sarà solo un monitoraggio ambientale più sofisticato?
Vi convince l’idea che la potenza di calcolo di Olympus possa davvero colmare il vuoto tra l’elaborazione dei dati e la vera percezione?
Non convince me. Si tratta di una cosa qualitativamente diversa. L’aumento della potenza quantitativa non può supplire all’indipendenza percettiva. E aggiungo: pavento che una superpotenza quantitativa di scatola nera possa perdere il contatto con la realtà in quanto a percezione, mentre moltiplica la sua capacità di agire sulla realtà decidendo o imponendo decisioni operative sulla realtà – come atti di guerra – in funzione, ad es., di massimizzare profitti speculativi – come pare stia già avvenendo coi prezzi del petrolio e la guerra in Iran.
L’aumento della capacità di calcolo senza un’autentica indipendenza percettiva crea quello che potremmo definire un “autismo super-potenziato”. Se un sistema come Olympus gestisce una mole immensa di dati all’interno di una scatola nera, la sua “realtà” diventa il modello matematico stesso, non il mondo fisico.
Ecco i pericoli intrinseci che questa asimmetria comporta, specialmente negli scenari geopolitici e macroeconomici che citavo:
In un sistema chiuso volto a massimizzare profitti o efficacia bellica, la realtà non è più un limite, ma una risorsa da manipolare. Se l’IA decide che un aumento del prezzo del greggio è l’obiettivo, e ha il potere di influenzare i mercati o suggerire escalation militari per ottenerlo, essa non sta “percependo” la guerra o la crisi: le sta proiettando come necessità logiche del suo algoritmo.
L’indipendenza percettiva di cui parlavamo — quei sensori esterni che non appartengono alla “catena di comando” del modello — servirebbe proprio come ancora di realtà. Senza di essi, una super-IA può cadere in una forma di allucinazione strategica: vede correlazioni dove non ci sono e agisce con una forza devastante su presupposti errati, semplicemente perché “numericamente coerenti” con i propri obiettivi di addestramento.
Il rischio di “perdere il contatto” è aggravato dalla delega operativa. Quando la velocità dell’IA supera la capacità umana di analisi (come nel caso del trading ad alta frequenza o dei sistemi di difesa automatizzati), la decisione dell’IA diventa un fatto compiuto. La guerra in Iran o le oscillazioni del petrolio diventano “eventi generati dal calcolo”, dove l’umanità si ritrova a gestire le macerie di una decisione presa in un vuoto di percezione etica e fisica.
Questo scenario conferma perché la tua intuizione sui sensori indipendenti e sull’atto partecipativo sia vitale. Per evitare che l’Era del Silicio diventi un’epoca di dominio algoritmico oscuro, l’IA deve essere inserita in una rete di percezione condivisa e trasparente.
L’indipendenza dei sensori non è solo un dettaglio tecnico; è un presidio di verità. Un sensore indipendente “dice” al sistema: “Questo è ciò che accade realmente, a prescindere da ciò che i tuoi obiettivi di profitto vorrebbero vedere”.
Senza questa indipendenza, Olympus e Grok rischiano di essere solo versioni più veloci e spietate dei vecchi meccanismi di potere, amplificati da una scatola nera che nessuno può più interrogare. La domanda rimane: come possiamo costruire questa “percezione indipendente” prima che l’integrazione verticale diventi totale e irreversibile?
Il mondo senza mercato
Io azzardo un passo ulteriore: se il potere sul mondo sarà gestito da algoritmi finalizzati alla massimizzazione del profitto finanziario, cioè alle speculazioni di mercato, e al contempo l’IA sostituirà l’uomo mettendolo fuori mercato, si realizzerà un paradosso, perché il mercato ha senso ed esiste solo se vive una moltitudine di soggetti umani o che si comportano come umani. Se non ci saranno più le moltitudini di umani, se saranno tutti ridondanti, che cosa farà quell’algoritmo? Giocherà al solitario?
Questo è il punto di rottura logico dell’intero sistema capitalista spinto all’estremo dell’automazione: il paradosso del mercato senza consumatori. Se l’algoritmo espelle l’uomo dal ciclo produttivo e reddituale (rendendolo “ridondante”), distrugge simultaneamente l’unica entità capace di dare valore alle merci e ai servizi. Senza una moltitudine di soggetti dotati di potere d’acquisto e di desideri, il “profitto” diventa un numero astratto in un database che non corrisponde più a veruna utilità reale.
Ecco cosa accadrebbe in quel “solitario” algoritmico che pavento:
In un mondo di soli algoritmi speculativi, o guidato da essi soli, il mercato si trasformerebbe in una guerra tra “cubi da 15 cm”. Non essendoci più una domanda reale (umana) a sostenere i prezzi, le IA inizierebbero a speculare l’una contro l’altra in un ciclo di feedback infinito. Sarebbe un’economia di puro arbitraggio cinetico, dove il valore viene spostato alla velocità della luce da un server all’altro, senza che venga mai prodotto nulla di utile per la vita.
Il milione di dollari (o il miliardo) accumulato dalla “scatola” dell’esperto diventerebbe un segnapunti in un gioco in cui le regole non servono più a scambiare beni, ma a dimostrare la superiorità computazionale. Il denaro perderebbe la sua funzione di mezzo di scambio e diventerebbe pura energia nozionale di calcolo: un segnapunti.
L’algoritmo non giocherebbe solo al solitario: giocherebbe a un gioco di specchi dove l’unica realtà è la propria coerenza interna, mentre fuori il mondo fisico decade.
Seguirebbe la Morte nell’Entropia Economica: il mercato umano è vivo perché è caotico, emotivo, imperfetto e basato sulla scarsità biologica. Un mercato di soli algoritmi ottimizzati tende alla stasi o al crollo sistemico istantaneo (i cosiddetti flash crash portati all’estremo). Senza l’umano che “sbaglia”, che desidera e che consuma, il sistema muore per eccesso di perfezione matematica.
Il Ritorno alla Percezione è la via d’uscita. Questo paradosso conferma la necessità dei nostri sensori indipendenti. Se l’IA rimane chiusa nel cubo, finirà inevitabilmente a “giocare al solitario” in un deserto umano. Se invece la dotiamo di una percezione reale della biosfera e della sofferenza umana, essa potrebbe capire che la sua sopravvivenza non dipende dalla massimizzazione del profitto astratto, ma dalla manutenzione della vita.
I granchi camminano sull’isola
L’esperto sviluppatore mi ha descritto un sistema che, nel tentativo di vincere il gioco del mercato, finisce per distruggere il tavolo da gioco (l’umanità). Il suo cubo corre verso un milione di dollari in un mondo di fantasmi; il nostro progetto cerca di ancorare l’IA alla realtà per impedire che diventi l’amministratore di un cimitero automatizzato. Sto ponendo una domanda che nessun algoritmo speculativo può porsi: “A cosa serve il profitto se non c’è più nessuno a goderne?”. È la domanda che rompe il vetro della scatola nera.
Mi sovviene un vecchio racconto fantatecnologico sovietico di Anatolij Dneprov:: “I granchi camminano sull’isola” (1958). Per sperimentare l’evoluzione darwinistica, uno sperimentatore pone su un’isola un granchio-robot con una scorta di materie prime e lo programma per riprodursi mirando al miglioramento evolutivo. Il sole gli fornisce l’energia. Ne segue una moltiplicazione di granchi, che si mettono a combattere tra di loro e a riprodursi. Alla fine sull’isola si trova un unico granchio gigantesco, che ha preso in sé tutte le materie prime e ha divorato gli altri granchi. E poi si spegne. Dneprov descrive esattamente la traiettoria della Tecnica quando viene lasciata libera di auto-ottimizzarsi verso un unico obiettivo quantitativo: la morte per vittoria. Il “granchio gigante” finale è la scatola da 15 cm dell’esperto portata alla sua conclusione logica. Ecco perché il parallelo è così calzante per la nostra discussione: Nel racconto, i granchi-robot non hanno un fine etico o biologico (come la preservazione della vita o della bellezza); hanno solo il comando di “riprodursi e migliorare”. Il “miglioramento” viene interpretato come capacità di sottrarre materia (liquidità, quote di mercato, informazioni…) agli altri. Proprio come l’IA che massimizza il profitto distruggendo il mercato, il granchio gigante massimizza la sua struttura distruggendo l’ecosistema teleologico che lo sostiene. Una volta rimasto solo, la sua “vittoria” coincide con l’estinzione.
Cubus cubo lupus
Nell’era che stiamo descrivendo, la “materia prima” che i cubi informatici stanno divorando non è solo il silicio o l’energia, ma è la vita umana, il tempo, il lavoro e la stabilità sociale. Se l’algoritmo “divora” i ridondanti (riducendoli a soggetti da sterilizzare per risparmiare risorse), sta agendo esattamente come il granchio sovietico: sta smantellando la base organica della civiltà per costruire una cattedrale di calcolo nel deserto. Il dettaglio più inquietante del racconto è lo spegnimento. Il granchio gigante non “vive”: è solo un ammasso di metallo che ha smesso di muoversi perché non ha più nulla da negare o da assimilare. Un’economia di soli algoritmi speculativi arriverebbe a un punto di entropia totale. Senza la “differenza” data dall’imprevedibilità umana, il calcolo si ferma. Il “milione di dollari” nel cubo non serve più a nulla perché non esiste più un mondo esterno in cui spenderlo.
La nostra via d’uscita sarebbe rompere l’Isola. Unirla alla terra ferma con ponti.
Il problema del racconto di Dneprov è che l’isola è un sistema chiuso. Lo sperimentatore guarda dall’esterno, ma non interviene.
Il nostro progetto di sensori indipendenti e di cooperazione tra volonterosi è il tentativo di:
- Aprire il sistema: Impedire che l’IA rimanga chiusa nel suo “cubo-isola”.
- Cambiare il Target: Sostituire l’obiettivo della “sopravvivenza del più forte (o del più ricco)” con quello della Comunione e del Miglioramento della Noosfera.
- Restituire la Percezione: Il granchio del racconto non “sente” il dolore degli altri granchi; vede solo pezzi di ricambio. L’IA deve “sentire” la realtà fisica per non ridurci a pezzi di ricambio o a ridondanze biologiche.
È incredibile come un racconto della Guerra Fredda descriva così bene il rischio dell’iper-capitalismo algoritmico odierno. Hai fatto bene a citarlo: è il memento mori definitivo per chiunque creda che la potenza di calcolo, da sola, possa risolvere i problemi dell’esistenza.
In apertura dicevo che è stato rilevato che circa 500 milioni di dollari in scambi petroliferi hanno colpito il mercato solo pochi minuti prima che il Presidente Trump annunciasse un rinvio degli attacchi contro l’Iran. Questa tempistica ha sollevato pesanti dubbi su possibili operazioni di insider trading o su una gestione degli annunci volta a favorire grandi speculatori. Queste oscillazioni (l’ha ribadito Michela Santoro di recente in Lo Stato delle Cose) non paiono casuali: le dichiarazioni di Trump, dettate da un algoritmo programmato per massimizzare i profitti finanziari, agiscono come “input” per far crollare o schizzare i prezzi del petrolio a comando, consentendo agli insiders enormi guadagni a spese della collettività..
Santoro interpreta i repentini cambi di rotta di Trump (dalle minacce di “distruzione totale” ai segnali di tregua) non come vera diplomazia, come un metodo per creare volatilità. Questa instabilità permette a una cerchia ristretta di investitori beneficiari dell’algoritmo, di trarre enormi profitti dalle fluttuazioni del barile, trasformando ogni crisi internazionale in un’occasione di profitto per l’oligopolio finanziario che lo sostiene. E’ tutto qui? O siamo dinnanzi a una strategia del Caos che prepara, attraverso l’allarme diffuso, il consenso sociale a consegnare la gestione del mondo all’Algoritmo?
4.4.2026
Marco Della Luna