
All’AI Festival 2025, fra innovazione e tecnologie, è emersa la riflessione su etica e diritti legati all’uso dell’intelligenza artificiale. Dall’espansione del riconoscimento biometrico alla difesa dei diritti umani digitali, passando per il design come strumento di resistenza: è questo il momento per riappropriarci della nostra identità, fisica e digitale, e praticare il nostro consenso.
Che cosa significa perdere il controllo sul proprio consenso? Il concetto di tecno-fascismo, introdotto 15 anni fa dalla storica statunitense Janis Mimura1, all’interno del libro Planning for Empire: Reform Bureaucrats and the Japanese Wartime State2, trova oggi nuovi spazi e nuove declinazioni, soprattutto negli Stati Uniti d’America.
L’editorialista del New Yorker, Kyle Chayk, lo ha usato recentemente per definire ciò che stiamo vivendo: «Una nuova congiunzione tra gli imprenditori di internet e le operazioni governative quotidiane». Nel suo articolo3 uscito nel febbraio 2025 sulla rivista americana, Chayk spiega infatti, che «il tecno-fascismo americano non è più un’astrazione filosofica con cui la Silicon Valley può armeggiare».
«È un programma politico i cui limiti costituzionali sono messi alla prova».
L’affermazione dell’IA sta accelerando questa degenerazione nel rapporto fra cittadini, governi e aziende. Nel paper Democratization in the Age of Artificial Intelligence4 Cupac, Schopmans e Tuncer-Ebeturk sono chiari nel descrivere quello che chiamano “autoritarismo digitale“, ovvero «l’uso della tecnologia digitale dell’informazione da parte di regimi autoritari per sorvegliare, reprimere e manipolare le popolazioni». I ricercatori, riferendosi alle grandi aziende tecnologiche, mettono in guardia sull’emergere di «una nuova classe quasi governativa che detiene il potere politico senza legittimità democratica o responsabilità». Quindi, senza alcun consenso.
Come rivendicare la possibilità di scegliere e negoziare attivamente il proprio rapporto con la tecnologia in spazi fisici e digitali sempre più sorvegliati e tracciati?
Il design che abilita il consenso
«L’uso delle tecnologie senza consapevolezza e contro bilanciamenti è un problema. È per questo che abbiamo creato quelli che possono essere definiti degli strumenti che permettono di compiere una scelta e restituire un pensiero critico alle persone, non più sottoposte ad una tecnologia senza consenso».
Rachele Didero, designer e imprenditrice, è founder e CEO della startup fashion-tech CAP_ABLE, uno studio di fashion design che sviluppa progetti e prodotti all’intersezione tra design e tecnologia. CAP_ABLE ha brevettato e commercializza in tutto il mondo quelli che chiama “AI Clothing for data privacy”, capi di abbigliamento disegnati grazie all’IA ma per ingannare l’IA e proteggere le persone dai sistemi di riconoscimento biometrico5 come quello facciale.
«Sono vestiti che proteggono l’identità, confondono gli algoritmi e ridanno alle persone il potere del consenso».
«Tutto è nato alcuni anni fa a New York, dove sono diffusi da tempo sistemi di riconoscimento biometrico negli spazi pubblici. Insieme a un gruppo di amici abbiamo immaginato di creare una protezione fisica dalle telecamere che colpivano la libertà di movimento dei cittadini».

Rachele Didero è una designer di moda e textile. Durante gli studi tra Milano, New York e Tel Aviv, ha sviluppato e brevettato un tessuto per proteggere il riconoscimento facciale. Questa ricerca continua a svilupparsi grazie al suo dottorato di ricerca tra il Politecnico di Milano e il MIT di Boston e alla startup fashion tech che ha fondato, Cap_able.
I vestiti di CAP_ABLE6 sono double-face, chi li indossa sceglie se essere riconoscibile come “persona” oppure se confondere l’IA con cani, zebre, giraffe o figure umane inserite nella trama del tessuto. Didero parla di “Critical design tech product” e “designer come sense maker“. «Il nostro è prima di tutto un design critico ma allo stesso tempo è un prodotto che deve saper rispondere a logiche di scalabilità e riproducibilità, oltre che essere tech. È un lavoro di ricerca continua per mantenerci al livello delle nuove tecnologie a cui si aggiunge un’alta qualità delle materie prime e del processo produttivo».
Sul mercato dal 2023, il prodotto di CAP_ABLE ha clienti in tutto il mondo. Il primo mercato è quello statunitense e in particolar modo la California, ma vende anche in Italia, Nuova Zelanda, Hong Kong e in molti altri Paesi.
Il mercato del riconoscimento biometrico
Il consenso, per CAP_ABLE, non è un atto formale o isolato, ma un processo dinamico che attraversa le interazioni sociali e le modalità con cui gli spazi pubblici vengono vissuti e regolati. Praticare il consenso significa poter decidere chi può raccogliere, utilizzare e archiviare i dati biometrici, ma anche stabilire le condizioni del nostro essere visibili, tracciati e sorvegliati.
Con il pretesto della sicurezza pubblica, della prevenzione del crimine o, più in generale dell’efficientamento nell’amministrazione urbana, il riconoscimento biometrico si sta, infatti, espandendo rapidamente nelle piazze, per le strade e lungo i confini degli Stati di tutto il mondo.
Secondo la società di consulenza Morodor Intelligence7 già oggi «l’FBI conduce, in media, 4.055 ricerche ogni mese per identificare le persone» con questi sistemi e può contare su un database di riconoscimento facciale con immagini di oltre 117 milioni di americani. Un utilizzo così in crescita che, sempre secondo l’analisi, entro il 2030 crescerà del 14,3% sono negli USA.
Un’altra ricerca8 della società di analisi Global Market Insight sulla “dimensione del mercato delle telecamere di sicurezza” mostra anche come l’avvento dell’IA stia accelerando l’implementazione di sistemi di videosorveglianza avanzati sempre negli spazi pubblici. «Le aziende stanno collaborando per offrire IA sempre più integrata nelle telecamere di sicurezza, prevalentemente utilizzate in luoghi pubblici come campus accademici, aeroporti, centri sportivi, zone commerciali e hotspot turistici. Questi luoghi pubblici sono luoghi cruciali negli aspetti della sicurezza e la soluzione IA consente il tracciamento in tempo reale».
A guidare questa evoluzione sono spesso nazioni con sistemi politici autoritari come la Cina: lo “Sharp Eyes Project”9, lanciato dalla Cina, incarna uno dei modelli più estremi di controllo sociale basato sulla tecnologia. Il suo obiettivo, dichiarato entro il 2020, era quello di realizzare un sistema di riconoscimento biometrico capillare, sfruttando una rete di centinaia di migliaia di videocamere distribuite su tutto il territorio. L’ambizione? Eliminare ogni “punto cieco” nella sorveglianza dei “nodi chiave” delle strade principali, garantendo una copertura totale nelle aree densamente popolate e monitorando ogni sito considerato strategico.
Non solo, iniziative come la “Via della Seta Digitale”10, lanciata per espandere la propria influenza nel settore tecnologico globale, hanno reso la Cina uno dei principali fornitori di infrastrutture digitali agli stati in via di sviluppo con un risultato presto detto: delle 64 nazioni che impiegano le tecnologie cinesi per le “città sicure e intelligenti”, 41 sono state classificate da Freedom House, un’organizzazione non governativa internazionale, come “non libere” o “parzialmente libere”11.
Annuncio sponsorizzato
Sponsorizza con noi
Difendere i diritti umani digitali
In Europa si lavora per tracciare un percorso opposto: quello della difesa dei diritti digitali e del consenso informato. Hermes Center è un esempio concreto di lotta che rivendica il consenso come pratica, non solo nell’ambiente fisico ma anche in quello digitale.
«Ogni giorno siamo davanti a una scelta», spiega Alessandra Bormioli, digital rights activist di Hermes Center.
«Quando utilizziamo strumenti digitali, che si tratti di un browser, di un’app o di un software, stiamo decidendo se proteggere o meno la nostra privacy».
«Ma il problema è che spesso non abbiamo nemmeno consapevolezza di questa scelta, perché il sistema è progettato per ottenere il nostro consenso senza che ce ne rendiamo conto».

Hermes Center è un’associazione nata a Milano nel 2012 che si batte per una società in cui la tecnologia sia uno strumento abilitante per la libertà, non per la sorveglianza. L’associazione è costituita da persone che condividono alcuni valori universali: libertà d’espressione e di movimento, tutela dei diritti umani, trasparenza e apertura dei software e degli algoritmi, difesa dei gruppi vulnerabili, responsabilità per chi detiene il potere. Da quasi due anni Alessandra Bormioli lavora per Hermes Centre come Digital Rights Activist.
Hermes Center lavora, allora, in Italia e in Europa, sia con un’azione coordinata di analisi, ricerche e formazione sui temi dei diritti umani digitali ma anche sviluppando free software che vogliono aumentare la libertà di espressione online: dal whistleblowing al giornalismo d’inchiesta. «Siamo un po’ i watchdog dei diritti umani digitali». Hermes è stata recentemente protagonista dell’AI Festival 2025, l’evento che, alla sua seconda edizione, ha registrato oltre 10.000 presenze e più di 200 speaker. All’interno di un panel dal titolo L’Intelligenza Artificiale tra progresso e tutela dei diritti umani, Alessandra Bormioli ha dialogato con i giornalisti Kevin Carboni e Walter Ferri sullo stato dei diritti umani in ambiente digitali all’indomani dell’entrata in vigore dell’Artificial Intelligence Act europeo. «Spesso abbiamo un’idea entusiastica dei progressi dell’IA, senza tenere conto di quali rischi si possono correre. Durante il panel abbiamo affrontato questo aspetto, toccando da più parti il rapporto fra sicurezza, tecnologia e controllo sociale».
«Come Hermes lavoriamo costantemente per aiutare la società civile a sviluppare consapevolezza su questi temi, invitando le persone a informarsi sui rischi e le opportunità della tecnologia ma soprattutto a credere e a difendere i propri diritti anche e soprattutto in ambito digitale. Lo facciamo anche attraverso l’arte, come con la mostra When they see us, a Bologna nel settembre 2024».
Un lavoro costante e fondamentale. «In questi mesi stiamo lavorando12 sul processo legislativo dell’AI Act in Italia e in particolar modo attraverso la Rete per i Diritti Umani Digitali stiamo spingendo affinché il Governo istituisca un’autorità autonoma, separata dalla politica, che possa supervisionare l’uso dell’Intelligenza Artificiale in Italia e garantire l’applicazione corretta del regolamento europeo». «Il cambiamento avviene sempre a velocità diverse» conclude Bormioli, «quello che parte dal basso, dalle comunità, è inevitabilmente più lento del cambiamento guidato dal business come nei sistemi delle big tech. Ma possiamo affermare con certezza che sul fronte dei diritti digitali delle persone oggi c’è molta più sensibilità. L’IA non esiste senza dati. Ma se i cittadini non hanno la possibilità di scegliere, perdendo quindi il potere di un consenso informato, l’IA diventa inevitabilmente un meccanismo di controllo».
- Il saggio vuole rivelare le radici moderne dell’interazione tra tecnologia e ideologia partendo dal racconto dell’affermazione del fascismo giapponese negli anni ’30 del Novecento. ↩︎
- Mimura, J. (2011). Planning for empire: reform bureaucrats and the Japanese wartime state. Choice Reviews Online, 49(04), 49–2235. https://doi.org/10.5860/choice.49-2235 ↩︎
- Chayka, K. (2025, February 26). Elon Musk, and how Techno-Fascism has come to America. The New Yorker. https://www.newyorker.com/culture/infinite-scroll/techno-fascism-comes-to-america-elon-musk ↩︎
- Cupać, J., Schopmans, H., & Tuncer-Ebetürk, İ. (2024). Democratization in the age of artificial intelligence: introduction to the special issue. Democratization, 31(5), 899–921. https://www.tandfonline.com/doi/full/10.1080/13510347.2024.2338852 ↩︎
- Tecnologie nate per l’identificazione e l’autenticazione delle persone basate su caratteristiche fisiche o comportamentali uniche. Oltre al riconoscimento facciale, alcuni esempi sono: l’impronta digitale, la scansione dell’iride e della retina, il riconoscimento vocale, la geometria della mano e l’analisi del cammino. ↩︎
- Per approfondire il progetto: https://www.capable.design/pages/chi-siamo ↩︎
- Dimensioni del mercato del riconoscimento facciale negli Stati Uniti | Mordor Intelligence. (n.d.). https://www.mordorintelligence.it/industry-reports/united-states-facial-recognition-market ↩︎
- Rapporto sulle dimensioni e sulle quote del mercato delle telecamere di sicurezza, 2025-2034. (n.d.). Global Market Insights Inc. https://www.gminsights.com/it/industry-analysis/security-cameras-market ↩︎
- Thompson, A. (2021, March 2). China’s ‘Sharp Eyes’ program aims to surveil 100% of public space. Center for Security and Emerging Technology. https://cset.georgetown.edu/article/chinas-sharp-eyes-program-aims-to-surveil-100-of-public-space/ ↩︎
- Fava, C. A. (2024, January 11). La Geopolitica delle Connessioni Globali: la Cina e la Nuova via della Seta digitale. Istituto Analisi Relazioni Internazionali. https://iari.site/2024/01/11/la-geopolitica-delle-connessioni-globali-la-cina-e-la-nuova-via-della-seta-digitale/#google_vignette ↩︎
- Cupać, J., Schopmans, H., & Tuncer-Ebetürk, İ. (2024). Democratization in the age of artificial intelligence: introduction to the special issue. Democratization, 31(5), 899–921. https://www.tandfonline.com/doi/full/10.1080/13510347.2024.2338852 ↩︎
- Center, H. (2025, February 11). Le nostre raccomandazioni sull’Autorità Nazionale per l’intelligenza artificiale. Hermes Center. https://hermescenter.org/le-nostre-raccomandazioni-per-listituzione-di-unautorita-nazionale-per-lintelligenza-artificiale/ ↩︎