Quando i dati sull’AI diventano finalmente pubblici
Febbraio 2026. OpenAI pubblica Signals, e con questo rilascio cambia qualcosa nel modo in cui parliamo di intelligenza artificiale. Non più solo demo impressionanti o promesse sul futuro, ma dati concreti su come ChatGPT viene effettivamente utilizzato. Dashboard interattivi, dataset scaricabili, briefing di ricerca aggiornati ogni trimestre. Roba che mancava, da tempo.
La cosa interessante? Non è solo trasparenza per il gusto di esserlo. È un tentativo di rispondere a domande che ricercatori, giornalisti e policy maker si fanno da mesi: come viene davvero adottata l’AI nell’economia reale? Chi la usa? Per fare cosa?
Quattro ambiti per capire l’impatto concreto
OpenAI Signals misura l’adozione attraverso quattro prospettive diverse. La prima riguarda l’adozione aggregata nel tempo: come cambia l’utilizzo, quali fasce d’età sono più attive, come evolvono i casi d’uso. Non solo numeri totali, ma pattern che mostrano tendenze.
Poi c’è la diffusione regionale. Paese per paese, e dove le soglie di privacy lo permettono, anche a livello di stati negli USA. Sapere che ChatGPT ha 700 milioni di utenti settimanali è una cosa. Capire dove si concentrano questi utenti e come differiscono i pattern d’uso è un’altra storia.
Il terzo ambito copre l’utilizzo specifico del lavoro. Qui entrano in gioco sistemi di classificazione automatica allineati alle tassonomie occupazionali consolidate. In pratica: stimano quanta parte dell’utilizzo è correlata al lavoro e che tipo di attività lavorative le persone portano su ChatGPT. Il 43% dei lavoratori statunitensi lo usa già, con il 45% di chi ha solo un diploma di scuola superiore che lo integra nel proprio lavoro quotidiano.
Quarto e ultimo: utilizzo fuori dal lavoro. Studio, produttività personale, creatività, ricerca di informazioni. Tutto quello che non rientra strettamente nella sfera professionale ma che comunque impatta su come le persone vivono e si organizzano.
Come vengono categorizzati i messaggi
Per dare senso a miliardi di conversazioni, OpenAI Signals classifica i messaggi in tre categorie principali. “Chiedere” copre richieste di informazioni o consigli. “Fare” include tutto ciò che richiede a ChatGPT di eseguire attività specifiche. “Esprimere” raggruppa messaggi che non rientrano nelle altre due categorie – né cercare informazioni né richiedere esecuzione di task.
Questa tassonomia semplice permette di tracciare pattern d’uso in modo comparabile nel tempo e tra diverse regioni. Non è perfetta, ma è un framework che funziona su larga scala.
Privacy differenziale e protezioni dei dati
Parlare di analisi su centinaia di milioni di utenti solleva ovvie questioni sulla privacy. OpenAI Signals non pubblica mai informazioni su conversazioni individuali. Zero testo grezzo di messaggi. Solo metriche aggregate che descrivono pattern ampi.
Il contenuto viene elaborato usando sistemi automatizzati applicati a dati de-identificati, privati di tutte le informazioni di identificazione personale. Le metriche vengono pubblicate solo quando riflettono popolazioni sufficientemente grandi. E c’è un layer aggiuntivo: privacy differenziale.
In termini pratici, significa aggiungere quantità calibrate di “rumore” alle statistiche per garantire che i dati sottostanti non possano essere sottoposti a reverse engineering. Anche aggregando più dataset pubblicati, non si risale ai singoli utenti. È una tecnica consolidata, usata anche da Apple e dal Census Bureau statunitense.
Numeri che raccontano una crescita esplosiva
I ricavi di OpenAI passano da 2 miliardi di dollari nel giugno 2023 a 6 miliardi nel 2024, fino a superare i 20 miliardi nel 2025. Una crescita 3x anno su anno. La capacità di calcolo segue una traiettoria ancora più ripida: da 0,2 gigawatt nel 2023 a 1,9 GW nel 2025, un aumento di 9,5 volte.
ChatGPT, lanciato nel novembre 2022, raggiunge 100 milioni di utenti settimanali attivi in pochi mesi. Oggi sono oltre 700 milioni. E un dettaglio interessante sul fronte demografico: le utenti donne hanno raggiunto il 52% entro luglio 2025, invertendo il precedente divario di genere del 63% maschile registrato nel gennaio 2024.
Il contesto strategico dietro Signals
Gennaio 2026. Il CFO Sarah Friar annuncia che OpenAI farà del 2026 l’anno dell’adozione “pratica”. Priorità: chiudere il divario tra ciò che l’AI rende possibile e come persone, aziende e paesi la utilizzano davvero. Signals rappresenta un elemento chiave di questa strategia.
Non è solo marketing o PR. È fornire dati trasparenti che dimostrano valore effettivo dell’AI nei contesti reali. Dati che ricercatori possono usare per fondare dibattiti su evidenze credibili. Dati che aiutano decisioni sulla forza lavoro e politiche economiche basate su prove, non su impressioni.
Limitazioni attuali e prospettive future
L’analisi iniziale riflette solo l’utilizzo consumer. Probabilmente sottorappresenta l’utilizzo enterprise, quello che avviene dentro aziende con deployment dedicati. È un limite riconosciuto, non nascosto.
Ma OpenAI Signals è pensato come progetto in evoluzione. Aggiornamenti regolari dei dati, nuove ricerche e analisi, storie degli utenti che contestualizzano i numeri. L’idea è costruire un corpus di informazioni che cresce e si raffina nel tempo.
E questo solleva una questione più ampia: quanto sappiamo davvero dell’impatto dell’AI? Signals prova a dare risposte concrete a questa domanda. Non promesse su cosa l’AI potrebbe fare, ma evidenze su cosa sta già facendo, chi la sta usando e come.
Se il 2026 sarà davvero l’anno dell’adozione pratica, iniziative come questa potrebbero fare la differenza tra hype e comprensione reale di come l’intelligenza artificiale sta cambiando il modo in cui lavoriamo, studiamo e ci informiamo.
