OpenAI spinge tasse sull’IA e riforme del lavoro

OpenAI predica rivoluzioni fiscali mentre il CEO schiva scandali. Puzza proprio di mossa PR con un bel po’ di interesse personale.

Copertina del paper policy di OpenAI con overlay di icone tasse e robot

Key Takeaways

  • OpenAI chiede riforme fiscali e tutele lavoratori contro i job loss da IA — ma il timing urla controllo danni.
  • Il paper spinge accesso IA come ‘diritto’, tool di oversight e condivisioni profitti in mezzo a scandali CEO.
  • Gli scettici vedono echi di monopolisti passati che si auto-regolano per scansare responsabilità vere.

OpenAI sta ficcando il naso nel tuo portafoglio.

Lunedì hanno tirato fuori un paper di policy — «Industrial Policy for the Intelligence Age: Ideas to Keep People First». Titolo simpatico. Dentro? Inviti ai governi a rivoluzionare tasse, leggi sul lavoro, reti di sicurezza sociale. Tutto perché l’IA sta per mangiarsi i posti di lavoro e riversare ricchezze sulle élite. O almeno, così sostengono.

E voilà il colpo di scena. Questo arriva a caldo dopo che The New Yorker ha fatto a pezzi il CEO Sam Altman. Accuse di inganni, scorciatoie sulla sicurezza, colpi di mano in board. Ilya Sutskever, co-fondatore, ha scritto memo che lo inchiodano. La board lo ha cacciato — per un pelo — per mancanza di schiettezza. I dipendenti si sono ribellati. Investitori come Josh Kushner hanno agitato assegni in modo minaccioso. Altman è strisciato indietro. E ora questo paper? Tempismo perfetto. O sospetto.

Guardate, OpenAI ammette che nessuno sa come arriverà la superintelligenza. Ma loro tirano fuori la sfera di cristallo: mercati del lavoro schiacciati, ricchezze accaparrate. La cura? Democratizzare l’accesso all’IA — tipo campagne di alfabetizzazione, dicono. Tassare duro l’automazione. Condividere i profitti dell’IA con le masse. Rinforzare tutele per i lavoratori, sostegni sociali. Audit sui modelli frontier. Report di incidenti. Perfino «playbook per il contenimento dei modelli» se le IA ribelli vanno atomiche.

Perché OpenAI si è messa a fare i guru della politica?

Citano il loro stesso vangelo: > «No one knows exactly how this transition will unfold. At OpenAI, we believe we should navigate it through a democratic process that gives people real power to shape the AI future they want, and prepare for a range of possible outcomes while building the capacity to adapt.»

Nobile. Ma un attimo — OpenAI è quella che corre verso la superintelligenza, ehm, scusate, «AGI». Non rallentano; sprintano, profitti avanti. Questo paper puzza di chiaroveggenza aziendale: predici l’apocalisse che potresti causare, poi offri soluzioni che ti tengono al comando.

La mia opinione bollente? È la strategia Rockefeller, edizione anni ’10. I baroni del petrolio finanziavano think tank che spingevano riforme antitrust — dopo aver monopolizzato tutto. Auto-regolati per evitare catene vere. OpenAI fa lo stesso: spinge tasse sull’automazione (la loro inclusa?), ma assicura che l’«accesso» passi per le loro API. Previsione audace: questo blabla «people first» crollerà quando i regolatori busseranno. Lobbieranno più di quanto predicano.

Versione corta: ipocrisia in allarme.

OpenAI dipinge il paradiso — boom di produttività, scienza che balza avanti, tenore di vita alle stelle. Costi più bassi, salute migliore, istruzione top. Sicurezza. Opportunità per tutti. > «The promise of advanced AI is not just technological progress, but a higher quality of life for all. Everyone should have the opportunity to participate in the new opportunities AI creates.»

Certo. Se non ti spazzano via prima. Avvertono di tsunami di posti di lavoro, concentrazione di ricchezze. Propongono quote civiche sui guadagni dell’IA. Modernizzare le tasse per i signori robot. Rafforzare la vigilanza — ironico, visti i casini interni sulla sicurezza.

Ma l’ombra di Altman incombe. Sutskever e Dario Amodei (ora boss di Anthropic) sono filati via, lamentando che la crescita ha battuto la sicurezza. La board lo ha giudicato «non costantemente sincero». Tempesta di fuoco. Reinserito grazie a rivolta dei dipendenti e muscoli degli investitori. Fiducia? In frantumi. E ora OpenAI pontifica su processi democratici? Pentola, bollitore, pece nera.

L’offensiva politica di Sam Altman è controllo danni?

Assolutamente sì. L’articolo di New Yorker sganci bombe — memo interni, sfiducia in board. OpenAI ignora le richieste di commento di Decrypt. Silenzio che urla colpa. Questo paper? Distrazione deluxe. Presentatevi come visionari, non profittatori spericolati. «If AI winds up controlled by, and benefiting only a

James Kowalski
Written by

Investigative tech reporter focused on AI ethics, regulation, and societal impact.

Worth sharing?

Get the best AI stories of the week in your inbox — no noise, no spam.

Originally reported by Decrypt