Quando la Finzione Diventa Manuale Operativo: Perché Dobbiamo Divorziare dalla Big Tech

Ovvero: Come Ho Imparato a Non Preoccuparmi e a Cancellare Instagram

Fabrizio Deliberali | Dicembre 2025


Ci sono linee nella società che esistono per un motivo preciso. Non sono arbitrarie. Sono linee portanti. Reggono l’intera struttura della società democratica, dell’integrità economica e della sicurezza delle persone.

Meta non le ha semplicemente oltrepassate — le sta sistematicamente smantellando per profitto.

E adesso abbiamo i dati per dimostrarlo.


Un pensiero scomodo: Aldous Huxley nel 1932 non stava scrivendo fantascienza. Stava scrivendo un manuale operativo, e noi lo abbiamo seguito con precisione inquietante.

Ho appena finito di leggere il memoir esplosivo di Sarah Wynn-Williams, Careless People — il suo feroce racconto dall’interno della cultura tossica di Facebook e della sua “negligenza letale”. Il libro mi ha scosso così profondamente che sono tornato immediatamente a Il Mondo Nuovo — un romanzo che non toccavo da anni. Rileggere Huxley alla luce delle rivelazioni di Wynn-Williams ha fatto scattare qualcosa con chiarezza disturbante: i paralleli non sono più curiosità letterarie. Sono campane d’allarme.


I Nuovi Incoscienti

Wynn-Williams, ex dirigente di Facebook che ha lavorato direttamente con Mark Zuckerberg e Sheryl Sandberg, prende in prestito il titolo del suo libro da Il Grande Gatsby di F. Scott Fitzgerald:

“Erano persone incoscienti, Tom e Daisy — fracassavano cose e creature e poi si ritiravano nel loro denaro o nella loro vasta incoscienza.”

Gli incoscienti degli anni Venti non sono mai scomparsi. Hanno solo ottenuto finanziamenti di venture capital e si sono trasferiti nella Silicon Valley.

Nel suo racconto nero e insieme esilarante, genuinamente scioccante, Wynn-Williams dipinge Zuckerberg e Sandberg non come geni del male, ma come qualcosa di potenzialmente più pericoloso: dirigenti narcisisti e autoreferenziali la cui immagine pubblica è clamorosamente in contraddizione con quello che sono davvero. Non si tratta di difetti caratteriali isolati — sono caratteristiche di una classe dirigente che opera con la struttura etica di bambini dell’asilo armati di lanciafiamme.

Da dirigenti così dovremmo scappare a gambe levate. Creare il vuoto intorno a loro. Privarli della loro rilevanza e del loro potere.


Il Verdetto di Dicembre 2025: I Dati Confermano Tutto

E adesso abbiamo i dati indipendenti a confermare ciò che Wynn-Williams ha visto con i propri occhi.

Il Future of Life Institute ha pubblicato il suo AI Safety Index Winter 2025 il 3 dicembre, e i risultati validano ogni campanello d’allarme di Careless People.

Otto aziende leader nell’AI sono state valutate su 35 indicatori di sicurezza in sei domini critici. Il verdetto su Meta: Voto D (punteggio 1,10 su 4,0)

AziendaVotoPunteggio
AnthropicC+2,67
OpenAIC+2,31
Google DeepMindC2,08
xAI (Musk)D1,17
Z.aiD1,12
MetaD1,10
DeepSeek (Cina)D1,02
Alibaba Cloud (Cina)D-0,98

Rileggete. Meta — l’azienda che controlla Facebook, Instagram e WhatsApp con oltre 3 miliardi di utenti attivi quotidiani — ha ottenuto un punteggio sostanzialmente identico a quello delle aziende cinesi di AI che operano sotto un regime regolatorio completamente diverso. L’azienda a cui gli americani affidano i propri dati, le proprie foto, i legami con le proprie famiglie… si piazza in fondo alla classifica insieme a società che operano sotto l’apparato di sorveglianza di Pechino.

La scoperta più grave? Sulla sicurezza esistenziale — la misura di quanto le aziende abbiano piani credibili per prevenire un uso catastrofico o la perdita di controllo sull’intelligenza artificiale superintelligente — Meta ha ottenuto un voto F (0,33 su 4,0).

L’azienda che Wynn-Williams ha descritto come “letalmente negligente” ora ha i punteggi di sicurezza indipendenti a fare pendant.

Il Prof. Stuart Russell, docente di informatica a Berkeley e uno dei revisori indipendenti, lo ha detto senza giri di parole: “I CEO dell’AI dichiarano di saper costruire un’intelligenza artificiale sovrumana, eppure nessuno è in grado di dimostrare come impediranno che ne perdiamo il controllo — dopo di che la sopravvivenza dell’umanità non sarà più nelle nostre mani.”


Quando Anche i Fondatori Scappano

Forse l’atto d’accusa più devastante non viene dai critici o dai ricercatori sulla sicurezza, ma dalle persone che queste piattaforme le hanno costruite.

Brian Acton, co-fondatore di WhatsApp, ha rinunciato a 850 milioni di dollari di stock option non ancora maturate nel 2017 perché non riusciva più a digerire quello che Facebook voleva fare con la sua creatura.

Acton ha rivelato che i dirigenti di Facebook lo avevano preparato per ingannare i regolatori europei sui piani dell’azienda di unire i dati di Facebook e WhatsApp. Dopo l’approvazione dell’acquisizione, Facebook ha fatto esattamente quello che ad Acton era stato detto di negare. L’UE alla fine li ha multati per 110 milioni di euro — spiccioli per un’azienda che aveva appena incassato 19 miliardi di dollari.

Così Acton se n’è andato. Ha lasciato 850 milioni di dollari sul tavolo. Poi ha investito 50 milioni per costruire Signal.

Quando il fondatore di WhatsApp paga letteralmente centinaia di milioni per fuggire da Facebook e costruire un’alternativa, questo vi dice tutto.


La Macchina delle Frodi da 16 Miliardi di Dollari

A novembre 2025, Reuters ha pubblicato un’inchiesta devastante che rivela come Meta stia guadagnando una fortuna dalla pubblicità fraudolenta — circa 16 miliardi di dollari all’anno da annunci che ingannano gli utenti, vendono prodotti contraffatti o gestiscono truffe belle e buone.

Non è un incidente. I documenti mostrano che Meta sa. Hanno costruito sistemi abbastanza sofisticati da targettizzarvi con annunci basati su conversazioni che avete avuto vicino al vostro telefono, ma evidentemente non abbastanza sofisticati da rilevare schemi di frode palesi.

Hanno fatto i conti. Le multe costano meno che fermare le frodi.

Sedici miliardi di dollari di frodi. Ogni anno. Da un’azienda guidata dagli “incoscienti” che Wynn-Williams descrive.


Il Sacrificio dei Nostri Figli

Ecco cosa mi tiene sveglio la notte come padre.

Le prove sugli effetti dei social media sulla salute mentale dei giovani sono ormai schiaccianti. Gli studi dimostrano che gli adolescenti che usano i social media più di 3 ore al giorno hanno il doppio del rischio di depressione e ansia. Le ragazze sono particolarmente colpite — gli algoritmi sono ottimizzati per farle sentire inadeguate, e funzionano esattamente come progettato.

Stiamo assistendo a un’intera generazione che lotta con crisi di salute mentale ingegnerizzate da algoritmi ottimizzati per il coinvolgimento anziché per il benessere.

La Prof.ssa Tegan Maharaj della HEC Montréal, una delle revisore dell’AI Safety Index, l’ha messa in modo devastante:

“Se nel 2016 ci avessero detto che le più grandi aziende tecnologiche del mondo avrebbero gestito chatbot capaci di sorveglianza digitale pervasiva, che spingono i ragazzi al suicidio e producono psicosi documentate negli utenti di lungo termine, sarebbe sembrato il delirio di un paranoico. Eppure ci viene detto di non preoccuparci.”

Le mie figlie meritano di meglio che algoritmi progettati per farle sentire inadeguate.


Lo Schema: Cinque Linee Oltrepassate

Lasciatemi essere chiaro su quali linee Meta ha oltrepassato. Non sono preoccupazioni ipotetiche. Sono schemi documentati.

Linea 1: Frode Economica — Lo Scandalo dei 16 Miliardi

A novembre 2025, Reuters ha pubblicato un’inchiesta devastante che rivela come Meta stia guadagnando una fortuna dalla pubblicità fraudolenta — circa 16 miliardi di dollari all’anno da annunci che ingannano gli utenti, vendono prodotti contraffatti o gestiscono truffe conclamate.

Non è un incidente. I documenti mostrano che Meta sa. Hanno costruito sistemi abbastanza sofisticati da targettizzarvi con annunci basati su conversazioni che avete avuto vicino al vostro telefono, ma evidentemente non abbastanza sofisticati da rilevare schemi di frode palesi.

Quando l’annuncio fraudolento è progettato per spillare soldi a persone vulnerabili — anziani che perdono i risparmi di una vita in falsi schemi di investimento, adolescenti che comprano prodotti contraffatti che non arriveranno mai — Meta prende la sua fetta.

Sedici miliardi di dollari.

Linea 2: Sovranità Democratica — La Resa della Silicon Valley

Il New York Times ha documentato a novembre 2025 come la Silicon Valley — con Meta in prima fila — si sia sistematicamente piegata alle pressioni politiche, abbandonando ogni pretesa di neutralità delle piattaforme o di integrità dei contenuti.

Non è una questione di destra contro sinistra. È la premessa fondamentale che le piattaforme che si dichiarano spazi pubblici neutrali dovrebbero effettivamente funzionare come spazi pubblici neutrali. Quando le piattaforme amplificano algoritmicamente i contenuti in base al coinvolgimento anziché all’accuratezza, quando modificano le loro policy in base alle pressioni politiche anziché ai principi, hanno smesso di essere aziende tecnologiche per diventare attori politici.

I ripensamenti di Meta sul fact-checking, le sue inversioni di rotta sulle policy dei contenuti, la sua disponibilità a piegarsi a chiunque detenga il potere — non sono decisioni aziendali neutrali. Sono scelte che plasmano il dibattito pubblico.

Linea 3: Governance della Sicurezza — Fallimento Strutturale

L’AI Safety Index ha rilevato che Meta “non ha alcun impegno sul monitoraggio e il controllo nonostante disponga di framework di gestione del rischio, e non ha presentato prove di investimenti nella ricerca sulla sicurezza oltre il minimo indispensabile.”

La raccomandazione del rapporto per Meta è eloquente: “Rafforzare la governance interna della sicurezza istituendo organi di supervisione con reali poteri, protezioni trasparenti per i whistleblower e un’autorità decisionale più chiara per le salvaguardie di sviluppo e deployment.”

Traduzione: le strutture di governance che dovrebbero prevenire i danni non esistono in alcuna forma significativa.

Linea 4: Ricerca e Responsabilità — La Scusa dell’Open Source

Meta si è posizionata come campione dell’AI “open source” attraverso i suoi modelli Llama. L’AI Safety Index rivela il lato oscuro di questa strategia.

Sul Proteggere le Salvaguardie dal Fine-tuning — la misura di quanto le aziende impediscano che i meccanismi di sicurezza vengano rimossi da malintenzionati — l’approccio di Meta di rilasciare i pesi completi del modello significa che gli utenti possono “modificare direttamente i parametri e potenzialmente disabilitare tutte le protezioni.”

L’open source è prezioso. Ma l’open source senza responsabilità non è democrazia — è abdicazione.

Linea 5: Trasparenza Informativa — Il Silenzio

Forse il dato più grave: Meta ha rifiutato di confrontarsi con l’AI Safety Index del tutto. Mentre Anthropic, OpenAI, Google DeepMind e persino xAI e Z.ai hanno presentato risposte ai questionari per fornire maggiore trasparenza, Meta è rimasta in silenzio.

Il rapporto nota: “Meta non ha risposto a una richiesta di commento sullo studio.”

Quando stai costruendo sistemi di AI che plasmeranno il futuro dell’umanità, il silenzio non è una strategia. È un’ammissione.


Il Test del Compagno di Cordata

Ci penso attraverso la lente dell’arrampicata — la mia altra vita, quella in cui la fiducia non è teorica.

Quando sono a trenta metri su una parete di calcare, la mia vita dipende dal mio assicuratore. Non dalle sue intenzioni. Non dal suo marketing. Dal suo comportamento reale nel momento in cui la corda si tende.

La cultura dell’arrampicata impone le sue linee senza pietà. Un assicuratore che si distrae nel momento sbagliato? È finito. Non perché gli arrampicatori siano crudeli, ma perché la posta in gioco è esistenziale.

I ricercatori sulla sicurezza dell’AI che valutano queste aziende applicano lo stesso standard. Stanno chiedendo: Quando il tuo sistema di AI fallisce — e i sistemi complessi prima o poi falliscono sempre — cosa ferma la caduta?

La risposta di Meta, secondo ogni metrica disponibile, è: niente di significativo.


Cosa Significa Questo per Te

Se usi Facebook, Instagram o WhatsApp, sei utente di sistemi costruiti da un’azienda che:

  • Guadagna 16 miliardi di dollari all’anno dalla pubblicità fraudolenta
  • Ottiene lo stesso punteggio sulla sicurezza dell’AI delle aziende cinesi che operano sotto supervisione autoritaria
  • Non ha un piano credibile per prevenire rischi catastrofici dell’AI
  • Rifiuta di confrontarsi con le valutazioni di sicurezza indipendenti
  • Rilascia modelli di AI che possono essere trasformati in armi rimuovendone le funzioni di sicurezza

La domanda non è se Meta continuerà a oltrepassare le linee. Le prove suggeriscono che è incorporato nel loro modello di business.

La domanda è se noi faremo qualcosa al riguardo.


La Lezione di John il Selvaggio

Questo mi riporta a Huxley. Ne Il Mondo Nuovo, John il Selvaggio vede attraverso la manipolazione del sistema. Rifiuta il soma, rifiuta i piaceri superficiali, rivendica il diritto di essere infelice. È l’eroe, giusto?

Ma John fallisce. Finisce isolato, furioso, e alla fine si distrugge.

Huxley aveva capito qualcosa di cruciale: il rifiuto da solo non basta. L’opposizione pura, senza costruire alternative, porta all’isolamento e all’impotenza. John sapeva solo dire no. Sapeva solo rifiutare, isolarsi e infuriassi.

Dobbiamo imparare dal suo errore. Dobbiamo dire sì — sì alla connessione umana vera, sì alla protezione di chi amiamo, sì al lavoro difficile di essere presenti, sì alla costruzione di alternative.

Brian Acton non se n’è andato rinunciando a 850 milioni di dollari per rabbia. Se n’è andato per amore verso ciò che aveva originariamente creato e per il lutto di ciò che era diventato. Poi ha riversato le sue risorse nella costruzione di Signal non per distruggere Facebook, ma per preservare ciò che amava della comunicazione umana: la privacy, la dignità, la connessione autentica.

L’amore è la forza che muove tutto ciò che vale la pena di fare. Non l’amore performativo dei post sui social media, ma l’amore vero, disordinato, difficile che implica esserci, essere presenti, essere vulnerabili, essere visti.


Lo Spazio Vuoto che Dobbiamo Creare

Gli incoscienti — sia quelli di Fitzgerald che i nostri — contano sulla nostra apatia. Contano sul fatto che gli effetti di rete siano troppo forti, la comodità troppo seducente. Contano sul fatto che non sappiamo che persino il fondatore di WhatsApp è scappato inorridito e ha costruito qualcosa di meglio.

Ma contano anche sul fatto che diventeremo eremiti isolati, arrabbiati e irrilevanti se resistiamo. Contano sul fatto che sceglieremo la rabbia sull’amore, la separazione sulla connessione, la purezza sull’efficacia.

Dobbiamo dimostrare che si sbagliano su entrambi i fronti.

Ogni movimento inizia con individui che fanno scelte scomode per amore, e poi aiutano gli altri a capire — non predicando come John, ma attraverso la presenza e la connessione autentica — perché quelle scelte contano.

Cosa sto facendo concretamente questa settimana:

  • Svuoto i miei account Instagram e Facebook — non li cancello ancora, ma creo quello spazio vuoto
  • Revoco ogni permesso che le app Meta hanno sui miei dispositivi (posizione, contatti, microfono — tutto)
  • Migro i miei contatti di lavoro su Signal, una conversazione alla volta
  • Porto le mie figlie ad arrampicare e a sciare. Niente telefoni. Solo presenza, fiducia e quel tipo di connessione vera che non ha bisogno di like

Brian Acton ha rinunciato a 850 milioni di dollari perché aveva capito cosa c’era in gioco. Non vi stiamo chiedendo di rinunciare a tanto — solo a un po’ di comodità digitale e all’illusione di connessione che in realtà sta facendo ammalare voi e i vostri figli.

E vi stiamo chiedendo di riempire quello spazio non con l’isolamento, ma con le connessioni umane vere, disordinate, bellissime che rendono la vita degna di essere vissuta.


Una Nota sulle Opzioni Strategiche

Riconosco che dire semplicemente “cancella tutto” non è una risposta completa. Sto lavorando a un articolo di approfondimento che esplora i diversi approcci strategici: cancellazione totale, trasformazione dall’interno, metodi ibridi e pressione normativa.

Perché cambiare questa traiettoria richiede più dell’azione individuale — richiede un movimento. E i movimenti iniziano con il coraggio di creare spazio vuoto dove prima abitava il danno.

Anche se questo significa rinunciare a 850 milioni di dollari. Anche se significa sopportare qualche scomodità. Anche se significa essere i primi ad andarsene.

Soprattutto se significa essere i primi ad andarsene.

Perché lo spazio vuoto deve pur cominciare da qualche parte.


Fabrizio Deliberali è un consulente strategico per partnership e imprenditore che opera nei settori dell’intelligenza ambientale, delle iniziative ESG e dei framework tecnologici etici. È CEO e co-fondatore di Smart Mountains e fondatore di Fab Campaigns. Quando non sta mettendo sotto accusa i giganti tecnologici, guida spedizioni in mountain bike nel Regno Unito e sulle Alpi o insegna ai suoi amici e alle sue figlie ad arrampicare.

Queste sono le sue opinioni personali, supportate da ampia documentazione e da un impegno professionale per costruire tecnologia che serva anziché sfruttare.

Unisciti alla migrazione: Signal per i messaggi. Piattaforme etiche per il sociale. La realtà per la connessione.


Fonti e Riferimenti

  1. Sarah Wynn-Williams, Careless People (2025)
    • Racconto dall’interno della cultura tossica di Facebook
    • Titolo preso in prestito da Il Grande Gatsby di F. Scott Fitzgerald
  2. Aldous Huxley, Il Mondo Nuovo (1932)
    • L’avvertimento originale sul controllo tecnologico attraverso il piacere
  3. Future of Life Institute AI Safety Index Winter 2025 (Dicembre 2025)
    • Rapporto completo: https://futureoflife.org/ai-safety-index-winter-2025/
    • Meta ha ottenuto D (1,10), stessa fascia delle aziende cinesi DeepSeek e Alibaba Cloud
    • Revisori indipendenti: Prof. Stuart Russell (UC Berkeley), Prof.ssa Tegan Maharaj (HEC Montréal), Prof. Yi Zeng (Accademia Cinese delle Scienze)
  4. Inchiesta Reuters: Le Pubblicità Fraudolente di Meta (Novembre 2025)
  5. New York Times: La Resa Politica della Silicon Valley (Novembre 2025)
  6. La partenza di Brian Acton da WhatsApp/Facebook
    • Ha rinunciato a 850 milioni di dollari in stock option non maturate
    • Ha investito 50 milioni di dollari per costruire Signal
    • Ha rivelato di essere stato preparato per ingannare i regolatori UE

#EthicalTech #MetaHaOltrepassatoLaLinea #FabsFridayFieldNotes #AISafety #CarelessPeople