Intelligenza Artificiale in azienda: tra hype marketing e realtà dei progetti

Molte aziende dispongono ormai di enormi moli di dati digitali, ma spesso mancano le basi tecniche e organizzative per sfruttarli efficacemente con l’IA. Il marketing dell’IA parla di “rivoluzione” e benefici straordinari, ma i fatti mostrano un quadro più sfumato (agendadigitale.eulinkiesta.it). Articoli di settore celebrano ogni nuova applicazione come epocale, generando hype e FOMO (fear of missing out) fra dirigenti e imprenditori.
In realtà, recenti studi evidenziano che solo una piccola percentuale di progetti IA porta valore tangibile: per esempio un’indagine MIT segnala che solo il 5% dei progetti pilota basati su IA generativa genera risultati concreti sui conti aziendali (economyup.itlinkiesta.it). Secondo AgendaDigitale, malgrado l’hype il 95% delle iniziative non produce un ritorno economico concreto. Questa discrepanza fra promesse mediatiche e risultati reali sottolinea che le aspettative sull’IA sono attualmente eccessive.

Diffusione e risultati concreti nei progetti aziendali

Nonostante l’aumento degli investimenti, molti progetti IA non riescono a tradursi in benefici concreti. Studi come quello del MIT mostrano che gran parte delle aziende italiane ed europee è ancora nelle fasi iniziali di adozione: il 40% di esse non ha nemmeno considerato l’IA e un altro 40% è rimasto in fase di test, con solo il 20% delle imprese che ha avviato un progetto pilota (ainews.it). Di queste, solo il 25% dichiara di aver avuto successo, una quota lontana dal clamore mediatico. Anche le statistiche europee riflettono un’adozione ancora contenuta: nel 2024 solo l’11% delle piccole imprese (10–49 dip.) ha utilizzato tecnologie IA, contro il 41% delle grandi aziende (profession.ai).

I motivi dei frequenti fallimenti sono molteplici e legati soprattutto a carenze organizzative e tecniche. Tra le cause più comuni (individuate anche da studi RAND e MIT) vi sono obiettivi mal definiti, dati aziendali di scarsa qualità o incoerenti, infrastrutture informatiche inadeguate e una scarsa integrazione delle soluzioni IA nei processi esistenti (economyup.itagendadigitale.eu). Spesso i progetti nascono come esperimenti isolati, senza una strategia chiara né risorse dedicate a lungo termine Altri ostacoli sono la mancanza di competenze interne (data scientist, ML engineer, ecc.) e la resistenza culturale: molti manager non hanno ancora chiaro il valore reale dell’IA e rischiano di attendere il “fallimento” come scusa per non agire. In pratica, senza rivedere in profondità processi, dati e organizzazione aziendale, le tecnologie più avanzate faticano a generare valore

Prerequisiti digitali per il successo dell’IA

Per ottenere benefici concreti dall’IA è indispensabile rafforzare la trasformazione digitale e la cultura aziendale. I progetti IA di successo poggiano su dati coerenti, ben strutturati e accessibili e su un’architettura IT solida Serve inoltre personale formato e sensibilizzato: non basta inserire uno “squadra IA” se il resto dell’azienda ignora le logiche dei nuovi modelli o non è in grado di adattare i processi. Investire su formazione continua e diffusione delle competenze interne è dunque fondamentale In mancanza di ciò anche una tecnologia d’avanguardia rischia di restare in un “cassetto” senza impatto

Fattori chiave per aumentare le probabilità di successo:

  • Dati di qualità: pulizia, coerenza e governance dei dati aziendali (senza questo l’IA non può imparare correttamente)
  • Infrastrutture adeguate: capacità di calcolo scalabile, sistemi di archiviazione moderni e integrazione con software esistenti
  • Competenze interne: figure tecniche preparate e coinvolgimento di manager e dipendenti (la formazione va estesa ai profili non tecnici)
  • Strategia e vision: definire obiettivi chiari di business prima di investire, focalizzandosi sui problemi aziendali concreti anziché sulla tecnologia in sé

I dati suggeriscono infatti che quando l’IA è “implementata con criterio e sostenuta dalle giuste condizioni” (dati di qualità, competenze e visione strategica) produce “effetti reali e misurabili” ad esempio incrementando produttività e qualità in settori come finanza, manifattura e retail. Al contrario, molti progetti restano sperimentali proprio perché mancano queste basi digitali.

AI-washing e promesse irrealizzate

Oltre agli aspetti tecnici, cresce il fenomeno del cosiddetto AI-washing: aziende e consulenti in tutto il mondo (non solo in Italia) vendono soluzioni “IA” gonfiando enormemente i propri claims tecnologici. In pratica, molte startup e società millantano capacità di intelligenza artificiale che in realtà non possiedono, assegnando all’IA un ruolo sovradimensionato nei loro prodotti Questo comporta raccolta di investimenti basati su “storie” di rivoluzioni future, clienti attirati da promesse mirabolanti e, in alcuni casi, scoperte di irregolarità: recentemente la SEC americana ha sanzionato società che pubblicizzavano uso di IA inesistente

In concreto, l’AI-washing si traduce in presentazioni marketing piene di buzzword, demo fittizie o piattaforme che funzionano con algoritmi basilari anziché con veri modelli avanzati. L’effetto è ingannevole: i decision maker possono essere convinti di acquisire soluzioni rivoluzionarie, ma nei fatti scoprono sistemi poco affidabili, costosi e incapaci di generare i risultati pubblicizzati. Come spiega AgendaDigitale, si tratta di “una narrativa ingannevole sull’AI travestita da innovazione”

Per difendersi dall’AI-washing è cruciale adottare approcci metodici: chiedere prove di concetto concrete, controllare la presenza reale di tecnologie di machine learning e diffidare dei venditori che promettono miracoli senza dati e casi d’uso dimostrati. Anche gli investitori e i clienti devono impostare aspettative realistiche sulle capacità attuali dell’IA e ricordare che un modello di machine learning, per quanto avanzato, resta uno strumento che va integrato con giudizio nelle attività aziendali.

Conclusioni: un approccio critico e consapevole

In sintesi, l’IA rappresenta indubbiamente una rivoluzione in corso, ma richiede un approccio pragmatico e lungimirante. I manager devono superare l’iperbole del marketing e concentrarsi su investimenti mirati: potenziare l’infrastruttura digitale e le competenze interne, definire casi d’uso concreti e scalare i progetti con pazienza. Le statistiche citate (in Italia l’adozione è salita dal 12% al 46% in un anno(intermediachannel.it) mostrano che molte imprese iniziano a usare l’IA e ne vedono benefici nel ridurre costi e migliorare processi . Allo stesso tempo restano nodi critici su sicurezza dei dati, user experience e cost che richiedono governance adeguata e formazione diffusa.

Raccomandazioni chiave per le aziende:

  • Costruire un’infrastruttura dati solida e scalabile, pulendo e integrando le informazioni disponibili.
  • Investire nella formazione continua del personale tecnico e non tecnico, in modo da creare competenze diffuse e supportare il cambiamento culturale.
  • Scegliere progetti IA con obiettivi di business chiari e fare sperimentazioni pilota mirate prima di estendere su larga scala
  • Valutare con attenzione i fornitori di IA, privilegiando partner con esperienza concreta e casi di successo documentati, anziché il marketing brillante.

In conclusione, l’intelligenza artificiale ha il potenziale per trasformare profondamente il modo di lavorare, ma soltanto se adottata con consapevolezza. Come mostra il cosiddetto “hype cycle” di Gartner, ogni tecnologia attraversa una fase di euforia e disillusione prima di raggiungere la maturità Bisogna quindi distinguere le promesse esagerate dalle reali applicazioni: chi saprà pazientemente costruire infrastrutture solide, sperimentare su problemi concreti e imparare dagli errori (anziché subire promesse irrealistiche) potrà trasformare l’IA in un vantaggio competitivo durevole. Solo così l’IA diventerà strumento di innovazione concreto, anziché restare un’illusione alimentata dal marketing.

 

L’app che doveva proteggere le donne, le ha esposte tutte

Introduzione e panoramica dell’app Tea

Tea è un’app di dating safety nata negli Stati Uniti e rivolta esclusivamente alle donne. La sua funzione principale è offrire un “spazio sicuro” dove le utenti possono condividere in forma anonima informazioni, esperienze e “red flag” su uomini con cui sono uscite, allo scopo di aiutarsi a vicenda a identificare potenziali rischi nei dating. In pratica, l’app consente di cercare il nome di un uomo e visualizzare eventuali recensioni o segnalazioni su di lui, comprese foto e commenti pubblicati da altre donne. Tea integra anche strumenti per verificare precedenti penali, controllare registri pubblici o fare reverse image search delle foto, presentandosi come un “Yelp degli appuntamenti” al femminile. Per garantire che gli utenti siano effettivamente donne, Tea richiede in fase di registrazione il caricamento di un selfie e di una foto di un documento d’identità valido (es. patente o carta d’identità) ai fini di verifica. L’app afferma di avere milioni di iscritte (oltre 1,6 milioni secondo i dati ufficiali) e recentemente è schizzata in vetta alla classifica delle app gratuite su iOS grazie a un’ondata di popolarità virale. Questa notorietà, però, ha acceso polemiche: se da un lato molte donne hanno accolto positivamente lo strumento, altre persone hanno sollevato dubbi etici sul rischio di diffamazione o violazione della privacy degli uomini citati.

Cronologia e modalità della violazione dei dati

Pochi giorni fa è finita al centro di un grave incidente di data breach. La violazione è emersa pubblicamente la mattina di venerdì 25 luglio 2025, pochi giorni dopo che l’app era diventata virale. Già la sera precedente, su alcuni forum online frequentati da ambienti misogini (come 4chan), erano comparsi post ostili che incitavano a “hackerare e diffondere” i dati dell’app come ritorsione. All’alba del 25 luglio un utente anonimo su 4chan ha segnalato di aver scoperto un grave vulnerabilità: tutte le foto caricate su Tea erano conservate in un bucket di storage cloud pubblico, senza alcuna protezione o autenticazione. Questo individuo ha pubblicato sul forum un link diretto al database aperto, esortando gli altri (“DRIVERS LICENSES AND FACE PICS! GET THE F**K IN HERE BEFORE THEY SHUT IT DOWN!”) a scaricare subito tutte le immagini prima che venisse chiuso l’accesso. In pochi minuti, altri utenti malevoli hanno sfruttato la falla: mediante uno script automatico sono state scaricate decine di migliaia di foto archivate nei server di Tea. Il leak si è diffuso rapidamente su piattaforme come 4chan e X (Twitter), dove diversi membri hanno iniziato a condividere screenshot dei documenti d’identità rubati e persino a confezionare un archivio completo dei dati esfiltrati.

Tea dichiara di aver individuato l’accesso non autorizzato attorno alle 6:44 AM PST del 25 luglio e di aver immediatamente avviato un’indagine forense interna. Nel pomeriggio (ora USA) dello stesso giorno, la società ha confermato pubblicamente la violazione, comunicando che l’attacco aveva interessato un vecchio archivio di immagini risalenti a oltre due anni prima. In pratica, gli hacker non hanno penetrato sistemi attuali, ma hanno sfruttato un database legacy (non più in uso corrente) che conteneva dati caricati fino all’inizio del 2023. Secondo Tea, quelle immagini erano conservate su richiesta delle autorità “in ottemperanza a requisiti legali legati alla prevenzione del cyberbullismo” – un riferimento al fatto che, trattandosi di un’app sensibile, i dati venivano trattenuti a fini di eventuali indagini di polizia. Questa spiegazione però non giustifica l’errore fatale: il bucket cloud era configurato come pubblico e accessibile a chiunque conoscesse l’URL, senza password né cifratura. In sostanza, i dati erano esposti online e il “furto” si è limitato a un download massivo non autorizzato (non c’è stata necessità di bypassare firewall o crittografie, dato che il contenuto era già liberamente raggiungibile a causa di un misconfiguration).

Cause tecniche e responsabilità dello sviluppo

Dalle analisi emerse, la responsabilità della violazione ricade in gran parte su gravi negligenze tecniche da parte del team di sviluppo di Tea. L’app faceva uso della piattaforma Firebase di Google per lo storage delle immagini utente, ma le impostazioni di sicurezza erano completamente assenti: tutti i file di verifica caricati (selfie e documenti) venivano salvati in un bucket pubblico sotto il path “attachments/”, senza alcuna restrizione di accesso. Ciò significa che le foto erano di fatto pubblicamente accessibili tramite internet a chiunque ne conoscesse l’indirizzo, configurazione apparentemente frutto di imperizia. Un utente anonimo coinvolto nel leak ha commentato indignato: “Sì, se avete inviato a Tea la vostra faccia e la patente, loro vi hanno doxxato pubblicamente! Nessuna autenticazione, niente di niente: è un bucket pubblico”. Questa falla basilare – dati sensibili non protetti sul cloud – denota una mancanza di misure minime di sicurezza (come regole di accesso private o crittografia lato server) che ci si aspetterebbero in un’app focalizzata sulla privacy.

Oltre alla configurazione errata, emergono interrogativi sul processo di sviluppo dell’app. Sui forum molti hanno ironizzato sul fatto che Tea sia stata programmata in modalità “vibe coding”, ovvero “a sentimento” senza seguire best practice di sicurezza o revisione del codice. Lo stesso anon su 4chan, nell’annunciare la scoperta, ha deriso il team definendolo “un branco di sviluppatori vibe-coding assunti per criteri di diversity”, insinuando che l’app fosse il prodotto di programmatori inesperti o poco competenti in tema di cybersecurity. Al di là del tono offensivo, questo commento riflette una percezione diffusa secondo cui gli sviluppatori di Tea avrebbero sottovalutato la protezione dei dati. In aggiunta, è emerso un possibile scollamento tra la privacy policy e la realtà tecnica: il sito di Tea affermava che i selfie di verifica sarebbero stati “conservati solo temporaneamente e cancellati immediatamente dopo la verifica”, ma il fatto stesso che esistesse un archivio storico di migliaia di queste foto contraddice tale promessa. L’azienda sostiene che la conservazione prolungata fosse dovuta a obblighi di legge, ma resta il fatto che non sono state implementate salvaguardie adeguate per proteggere quei dati sensibili. In definitiva, l’“hackeraggio” di Tea non è avvenuto tramite sofisticate tecniche di intrusion, ma è stato possibile per via di errori elementari di sicurezza imputabili allo staff tecnico dell’app (design e configurazione negligenti).

Dati compromessi nella fuga

L’attacco ha comportato il dump online di un’enorme quantità di dati utente, in particolare immagini personali. Stando al comunicato ufficiale di Tea e alle analisi indipendenti, sono state esposte circa 72.000 immagini in totale. Di queste, circa 13.000 erano foto di verifica: includono sia i selfie caricati dalle utenti per dimostrare la propria identità femminile, sia le foto dei relativi documenti d’identità (patenti di guida, carte d’identità, ecc.) inviate durante la registrazione. In altri termini, migliaia di immagini ritraggono volti di donne accanto ai loro documenti ufficiali, con nome, cognome, data di nascita e altri dettagli personali ben visibili – esattamente il tipo di informazioni che Tea prometteva di custodire con cura. I restanti ~59.000 file appartengono invece al contenuto generato all’interno dell’app stessa. Si tratta delle foto e immagini che le utenti avevano pubblicato nei post, commenti o chat su Tea – per lo più screen di chat con uomini, fotografie di uomini “segnalati” o altre immagini condivise nel feed. Queste ultime erano già visibili alle altre iscritte nell’ecosistema chiuso dell’app, ma a seguito del breach sono finite liberamente online.

Secondo Tea, non sarebbero stati sottratti altri dati personali oltre alle immagini. In particolare l’azienda afferma che email, numeri di telefono, password o altri dati di login non sono stati compromessi dall’attacco. Tuttavia, la portata delle informazioni contenute nelle immagini trafugate è di per sé estremamente critica: le foto dei documenti di identità contengono dati anagrafici completi e spesso anche indirizzi di residenza, mentre i selfie associati permettono di riconoscere il volto dell’utente. In pratica il leak fornisce potenzialmente tutto il necessario per identificare nella vita reale molte iscritte (nome, volto e persino indirizzo in alcuni casi), cancellando qualsiasi anonimato. Oltre a ciò, tra i dati vi sarebbero anche alcune conversazioni private: fonti giornalistiche riferiscono che nell’archivio vi erano anche commenti e messaggi diretti scambiati sulle piattaforme Tea (sebbene tali elementi risalgano a vecchie iterazioni dell’app). Questo implica che perfino chat riservate tra utenti potrebbero essere state lette da estranei, un’ulteriore violazione della privacy.

Utenti colpiti e portata del danno

La violazione dei dati su Tea ha coinvolto potenzialmente migliaia di utenti. Poiché il database esposto conteneva dati di iscrizioni fino a febbraio 2023, si stima che tutte le donne che hanno creato un account in quel periodo (fino a ~2 anni prima dell’attacco) abbiano visto i propri file di verifica finire online. I numeri forniti – 13.000 immagini di selfie/documenti – suggeriscono che all’incirca 6.500 profili utente possano aver inviato documenti in quella fase (presumendo che ciascuna iscritta caricasse un selfie e una foto del documento separatamente). Dunque diverse migliaia di donne hanno subito una compromissione diretta della propria identità. A ciò vanno aggiunte le utenti coinvolte indirettamente per via delle foto condivise nei post: 59.000 immagini di post/commenti indicano un elevato volume di contenuti appartenenti a un insieme più ampio di partecipanti alla community. Alcune utenti potrebbero aver pubblicato più foto nel tempo, quindi il numero di profili toccati da questo secondo insieme è difficile da quantificare, ma sicuramente amplia la platea delle interessate.

La gravità del danno per le utenti colpite è significativa. Innanzitutto, le donne che avevano fornito i loro documenti d’identità per verificarsi si ritrovano adesso con copie digitali di quei documenti in circolazione incontrollata su internet. Questo le espone concretamente a rischi di furto di identità e frodi: malintenzionati potrebbero utilizzare quelle immagini per tentare di aprire conti o contrarre debiti a nome delle vittime, o per costruire falsi documenti (le patenti contengono foto, dati e codici utili per clonazioni). In secondo luogo vi è un rischio di doxxing e stalking: avendo sia il volto sia possibili indirizzi/nominativi, soggetti ostili potrebbero rintracciare queste donne sui social o nel mondo reale, minacciando la loro sicurezza personale. Da non sottovalutare è anche l’effetto psicologico e reputazionale: molte iscritte a Tea utilizzavano l’app proprio per proteggersi da uomini violenti o manipolatori, condividendo esperienze delicate; ora si trovano ri-vittimizzate, con i loro dati privati messi alla mercé di chiunque su forum noti per misoginia.

Va detto che l’attacco ha anche implicazioni per terzi estranei all’app: ad esempio, tra le 59.000 immagini trapelate ve ne sono molte di uomini “schedati” dalle utenti (foto di partner o ex partner associati a segnalazioni di abusi, tradimenti, etc.). Questi uomini – che già vedevano la propria reputazione potenzialmente lesa dalle discussioni sull’app – ora si ritrovano con le loro foto e informazioni diffuse fuori dal contesto originale, senza alcun controllo. In definitiva, la portata del danno travalica il singolo incidente tecnico: l’evento ha leso la fiducia nella piattaforma e compromesso la privacy sia delle donne iscritte che, in parte, delle persone menzionate nei loro post.

Reazione degli sviluppatori e gestione dell’incidente

Di fronte all’emergenza, i creatori e gestori di Tea hanno cercato di reagire tempestivamente per contenere i danni e rassicurare gli utenti. In giornata, l’azienda ha diffuso uno statement ufficiale ammettendo la violazione e sottolineando di aver subito coinvolto esperti esterni di cybersecurity per mettere in sicurezza i sistemi. “La protezione della privacy e dei dati delle utenti è la nostra priorità assoluta”, ha dichiarato un portavoce di Tea, aggiungendo che il team sta “lavorando senza sosta e adottando ogni misura necessaria per garantire la sicurezza della piattaforma e prevenire ulteriori esposizioni”. Nella comunicazione, Tea ha ribadito che – in base alle informazioni raccolte – l’incidente ha riguardato esclusivamente un vecchio archivio di immagini risalenti a prima del 2024, e “non vi sono evidenze” di accessi ad altri dati o account correnti. In altre parole, l’azienda sostiene che le informazioni più recenti (caricate dopo febbraio 2023) e le credenziali utente non siano state toccate.

Contestualmente, il fondatore di Tea Sean Cook ha riconosciuto pubblicamente l’accaduto. In un post su LinkedIn e tramite i canali social dell’app, Cook ha spiegato che Tea era nata da una missione personale (in seguito a un’esperienza traumatica di sua madre con il dating online) e si è detto profondamente dispiaciuto per la violazione occorsa. Gli sviluppatori hanno provveduto a chiudere immediatamente l’accesso al bucket vulnerabile e a disabilitare temporaneamente alcune funzionalità dell’app per svolgere controlli di sicurezza. Dentro l’app, l’account amministratore “TaraTeaAdmin” ha pubblicato un avviso informando le iscritte del breach e invitandole alla calma: quel post interno ha raccolto centinaia di commenti, segno dell’ansia e rabbia diffuse nella community. Molte utenti hanno chiesto chiarimenti e misure concrete, come l’implementazione di autenticazione a due fattori o la garanzia che d’ora in poi i documenti non vengano più conservati.

Sul fronte pubblico, Tea ha enfatizzato la cooperazione con le forze dell’ordine: considerando che l’azione di leaking su 4chan potrebbe configurare vari reati informatici, l’azienda ha dichiarato di star collaborando con le autorità per identificare i responsabili e tutelare le vittime (anche se nei comunicati stampa questa parte è stata trattata solo implicitamente). Infine, il team ha ribadito il proprio impegno originario: “La sicurezza delle donne su Tea è la ragion d’essere dell’app, e nulla è più importante per noi”. Tale messaggio, però, è apparso come “too little, too late” ad alcune utenti, dato che nei fatti l’app non è riuscita a proteggere informazioni estremamente sensibili.

Impatto mediatico e reazioni sui social

Il caso Tea ha immediatamente catalizzato l’attenzione mediatica internazionale, scatenando accese discussioni sia sulla stampa che sui social network. Numerose testate – da ABC News a NBC, da testate tecnologiche indipendenti come 404 Media fino a grandi agenzie di stampa (AFP) – hanno riportato la notizia del data breach, spesso sottolineando l’ironia crudele della vicenda: un’app nata per permettere alle donne di proteggersi e “doxxare” potenziali molestatori si è trasformata essa stessa in fonte di doxxing di massa delle sue utenti. Sui social media, le reazioni sono state polarizzate. Molti utenti hanno espresso solidarietà alle donne colpite, condannando gli hacker di 4chan per quello che viene visto come un attacco misogino deliberato. In particolare, è emerso che tra le vittime del leak vi sono donne che avevano usato Tea per denunciare anonimamente episodi di violenza o abusi subìti: queste utenti, già vulnerabili, si sono viste esposte nuovamente al pubblico ludibrio, circostanza definita “una triste rivittimizzazione” da diversi commentatori. Attivisti e figure del mondo tech hanno rilanciato il dibattito sulla necessità di proteggere meglio le comunità femminili online, evidenziando come odio e ritorsioni contro le donne trovino terreno fertile in certi forum anonimi.

D’altro canto, non sono mancate voci (soprattutto su 4chan e ambienti affini) che hanno accolto la notizia con scherno e compiacimento. In tali circoli Tea viene descritta come un “doxxing app” il cui scopo sarebbe diffamare gli uomini; per costoro, il fatto che le partecipanti siano state a loro volta doxxate viene visto come una sorta di “contrappasso” o “karma istantaneo”. Su X/Twitter alcuni influencer hanno cavalcato questa narrativa: ad esempio lo streamer Asmongold ha commentato in diretta la fuga di dati affermando che “era solo questione di tempo, un bel contrappasso” (alludendo al fatto che “chi di doxx ferisce, di doxx perisce”) – un’opinione che ha suscitato sia consensi sia critiche accese. Su Reddit community come r/TrollXChromosomes hanno discusso l’accaduto con toni preoccupati, mentre altri subreddit maschili lo hanno celebrato come una “vittoria”.

L’impatto mediatico è stato amplificato da alcuni episodi collaterali: entro poche ore dal leak, uno sconosciuto ha creato una mappa pubblica su Google Maps caricando dei segnaposto geografici che presumibilmente corrispondono alla posizione (approssimativa) di alcune utenti Tea coinvolte. Pur senza nomi, questa mappa (diffusa anch’essa su 4chan) ha generato ulteriore allarme, dando l’idea che i dati trapelati possano essere sfruttati per localizzare fisicamente le persone. Allo stesso modo, è venuto alla luce che un gruppo di sviluppatori amatoriali aveva lanciato “Teaborn”, un clone al maschile di Tea nato per permettere agli uomini di recensire le donne in risposta a Tea: dopo il breach, Teaborn (già criticato perché pare incoraggiasse la condivisione di revenge porn) è stato rimosso dagli app store, ma l’episodio segnala il clima di guerra di genere digitale che si è creato attorno a questa vicenda. Nel frattempo, l’app Tea continua ad attirare attenzione: paradossalmente, nonostante (o forse a causa di) lo scandalo, milioni di nuove utenti si sono messe in lista d’attesa per scaricare l’app – i gestori riferiscono di oltre 2 milioni di richieste di ingresso dopo l’esplosione virale e la pubblicità involontaria generata dal caso. Sulla pagina Instagram ufficiale di Tea, però, molti commenti di nuove e vecchie iscritte esprimono preoccupazione: “Come facciamo a fidarci ora?”, chiedono alcune, mentre altre raccontano di aver rimosso le proprie foto dall’app per paura di ulteriori leak. In sintesi, l’affaire Tea ha scatenato un ampio dibattito pubblico su sicurezza informatica, privacy e sessismo online, con opinioni fortemente divisive e un’attenzione mediatica destinata a perdurare.

Implicazioni legali e di privacy

Dal punto di vista legale e della tutela della privacy, il data breach di Tea solleva numerose questioni. In primo luogo, vi è la responsabilità dell’azienda verso le proprie utenti: conservare copie di documenti d’identità in un repository pubblico rappresenta una violazione palese di fondamentali principi di protezione dei dati. Negli Stati Uniti, dove ha sede Tea, non esiste una legge federale onnicomprensiva sulla privacy come il GDPR europeo; tuttavia, esistono normative statali (ad esempio in California) che impongono obblighi di sicurezza e notifica di violazione quando vengono compromessi dati personali sensibili. È verosimile che Tea dovrà notificare formalmente l’accaduto alle interessate e alle autorità competenti, e potrebbe affrontare azioni legali collettive: gli avvocati specializzati in class action potrebbero infatti ravvisare negligenza nella mancata adozione di misure di sicurezza adeguate, con richiesta di risarcimenti per i danni (materiali e morali) subìti dalle utenti. Va notato che il fatto di non aver rispettato la propria privacy policy (promettendo cancellazione dei dati che invece sono stati conservati e poi esposti) potrebbe aggravare la posizione di Tea in eventuali contenziosi, configurando una pratica commerciale ingannevole. Negli USA casi simili in passato hanno attirato l’attenzione della Federal Trade Commission (FTC), l’agenzia che vigila anche sulla privacy dei consumatori.

In Europa, se tra le vittime figurassero cittadine UE, troverebbe applicazione il GDPR: una fuga di copie di ID personali rientra infatti nella categoria di data breach grave da notificare entro 72 ore alle autorità Privacy e agli interessati. In uno scenario transnazionale, Tea rischierebbe potenzialmente sanzioni molto pesanti (le multe GDPR possono arrivare fino a 20 milioni di euro o al 4% del fatturato annuo). Anche al di fuori delle sanzioni normative, il danno reputazionale subito da Tea è enorme: la fiducia degli utenti nell’app è stata compromessa e ciò potrebbe tradursi in un’emorragia di iscritti, mancata crescita o persino chiusura del servizio se gli utenti non si sentiranno più al sicuro nel fornire informazioni.

Per le utenti coinvolte, le implicazioni privacy sono dirette e personali. Molte potrebbero dover intraprendere passi per tutelarsi, ad esempio facendo denuncia per furto d’identità, monitorando i propri conti finanziari, cambiando documenti (in casi estremi) o rafforzando la sicurezza delle proprie identità digitali. Come ha osservato un esperto di sicurezza di Bugcrowd, una volta che nomi reali e indirizzi associati ai volti vengono resi pubblici, i rischi spaziano dallo stalking all’identity theft, e quest’ultimo è “solo la punta dell’iceberg”. Organizzazioni per i diritti digitali hanno evidenziato come questo caso metta in luce i pericoli insiti nel richiedere verifiche di identità tramite documento: se i dati non vengono custoditi con standard elevatissimi, il potenziale impatto di una falla è devastante. Non a caso, già nel 2022 si era verificato un leak simile riguardante un provider di verifiche anagrafiche usato da molti siti, segno che tali sistemi non sono infallibili.

Un ulteriore aspetto legale riguarda il fronte opposto: gli autori del leak. Anche se su 4chan agiscono anonimamente, qualora fossero identificati, potrebbero essere perseguibili per vari reati: accesso abusivo a sistema informatico, furto di dati personali, diffusione illecita di informazioni riservate, oltre a possibili aggravanti legate alla natura mirata (un attacco intenzionale contro un gruppo protetto potrebbe perfino configurare violazione di diritti civili). In alcuni Stati USA, il doxxing (pubblicare informazioni private altrui per fomentare molestie) è perseguibile per legge, e qui si tratta del doxxing di migliaia di persone. Tuttavia, l’anonimato della rete e la natura estera di 4chan renderanno non semplice attribuire responsabilità individuali.

In conclusione, il caso Tea rappresenta un precedente allarmante sia sul piano della privacy sia su quello legale. Dimostra come anche startup emergenti e popolari possano cadere vittima di errori banali ma dagli effetti disastrosi, e come la promessa di anonimato online possa infrangersi in un istante se non supportata da robuste misure di sicurezza. È probabile che seguiranno indagini e dibattiti legislativi su come prevenire il ripetersi di episodi simili, specialmente per piattaforme che raccolgono dati altamente sensibili (come documenti di identità). Allo stesso tempo, l’evento ha fatto emergere tensioni sociali profonde: la vicenda, infatti, non si esaurisce nella pur grave falla tecnica, ma si inserisce in un contesto di guerra culturale digitale tra chi rivendica spazi di tutela per le donne e chi vi si oppone con azioni ostili. Le implicazioni di lungo termine toccheranno sia l’ambito della cybersecurity – ricordando a sviluppatori e utenti che nessun dato condiviso online è al sicuro al 100% – sia quello della privacy e dei diritti, sollevando interrogativi su come bilanciare libertà di espressione, tutela dalla disinformazione e protezione dei dati personali in comunità online sempre più complesse.

Fonti:

ABC News , 404 Media , Hindustan Times , Livemint/Mint , R Street Institute, ABC GoodMorningAmerica

 

La creatività pigra

L’AI è un turbo, non una scorciatoia

C’è un fenomeno curioso che sto osservando sempre più spesso.

Professionisti di ogni livello — marketer, copywriter, sviluppatori — sembrano improvvisamente sollevati. L’AI ha alleggerito la fatica. Scrive mail in un attimo, compone pitch brillanti, genera codice “quasi funzionante”.

Tutto più veloce. Tutto più semplice.

Ma la domanda non è “quanto o cosa si può produrre con l’AI?”.

La vera domanda è: “Cosa succede a chi la usa male?”

Perché dietro questa corsa all’efficienza c’è un effetto collaterale sottovalutato:
la perdita progressiva della competenza.

Quando deleghi tutto troppo presto, smetti di allenarti.
Quando ti accontenti del primo draft generato, smetti di pensare.
E quando ti abitui a non pensare… cominci a dimenticare come si faceva.

Viviamo nel mito della velocità.

L’AI ha mantenuto la promessa: automatizzare compiti, comprimere tempi, semplificare flussi. Ma in cambio ci ha offerto una tentazione pericolosa: saltare i passaggi che ci formano.

La riflessione.
Il dubbio.
La revisione.

Quelli che non fanno rumore nel time tracking, ma che fanno la differenza tra un lavoro ben fatto e uno solo ben impacchettato.

Risultato?

Una nuova forma di creatività: lucida fuori, ma vuota dentro.
Una creatività che ottiene l’effetto giusto… senza sapere perché.

Una creatività pigra.

Alzi la mano chi ha mai ricevuto una risposta “AI generated” perfetta al primo colpo. (Immagino poche mani).
Eppure molti si accontentano. Prendono l’output, lo incollano, lo firmano.

Non c’è editing, non c’è giudizio. C’è solo una fiducia cieca in un sistema che, per sua natura, non ha idea di cosa stia dicendo. Il paradosso è che l’AI, se usata senza consapevolezza, non automatizza la competenza: automatizza l’errore.

Un report di Stanford HAI mostra che i modelli generici allucinano risposte legali in oltre il 58 % dei casi, con picchi all’82 % su prompt più complessi [1].

Ora, se nemmeno un avvocato può fidarsi completamente di un modello per un parere tecnico, perché dovremmo fidarci noi — senza alcuna verifica — per decidere la prossima campagna di comunicazione o l’architettura di un prodotto?
Sì, è vero: una consulenza legale ha impatti potenzialmente più gravi.
Ma anche un output apparentemente “innocuo” come:

“Scrivimi una strategia marketing in cinque bullet point”

può diventare un boomerang se applicato senza contesto, senza filtro, senza pensiero.

Un tone of voice sbagliato può danneggiare un brand.

Un posizionamento copiato da un altro settore può far perdere settimane di lavoro al team. Un’idea “data dall’AI” può sembrare originale, ma in realtà essere identica a quella di altri 10 competitor che hanno usato lo stesso prompt.

L’errore, anche se soft, si moltiplica quando non lo riconosci.
E il problema non è tanto l’allucinazione, quanto l’illusione:
che basti un prompt per diventare bravi.

Che basti copiare uno slide deck generato per poter dire “ho fatto strategia”.
Che l’AI abbia davvero “democratizzato” le competenze.

Ma i dati raccontano un’altra storia.

Il Future of Jobs Report 2025 ci dice che il 39 % delle competenze sul mercato cambierà entro i prossimi cinque anni, e che la stragrande maggioranza delle aziende investirà in formazione e riqualificazione urgente [2].

La verità è semplice, anche se un po’ scomoda: l’AI non ti rende più competitivo se non sai cosa stai facendo.

Non abbassa l’asticella: la sposta più in alto.

Ti obbliga a pensare meglio, a valutare di più, a distinguerti. E se non lo fai, non è che vieni aiutato…

vieni sostituito..

McKinsey stima che la generative AI potrà contribuire fino allo 0,6 % di crescita annuale della produttività globale [3].
È un numero interessante.

Ma ci obbliga a una domanda che pochi stanno facendo:
di che produttività stiamo parlando?

Vogliamo davvero un mondo dove la creatività diventa un processo industriale? Un flusso continuo di contenuti, testi, slide e codice “abbastanza buoni”, ma intercambiabili tra loro e tra professionisti?
O preferiamo una produttività che non ci annulla come individui, che lascia spazio alla voce personale, all’intuizione, alla visione?
Una produttività che non ci rende semplicemente più rapidi… ma più rilevanti?

Io punto senza esitazioni sulla seconda.

Ma per ottenerla, serve un cambio di passo. Non nei tool — nei criteri. Serve tornare a curare la qualità prima della quantità. A editare con attenzione chirurgica. A usare l’AI per raffinare la nostra idea, non per produrne una al volo.A trattare il prompt non come una bacchetta magica… ma come un atto di responsabilità.

L’intelligenza è aumentata. E adesso? L’AI è brillante.Ma non ha il tuo vissuto, la tua sensibilità, il tuo senso del contesto.

Sa sintetizzare, ma non scegliere.
Sa imitare, ma non creare davvero.

Per questo, delegare tutto è rischioso. Non tanto perché “l’AI sbaglia”, ma perché ci disabitua a pensare. E se smettiamo di pensare, il prezzo non sarà solo la qualità del nostro lavoro. Sarà la perdita della nostra voce professionale, della nostra identità creativa.

Un costo altissimo, che nessun risparmio di tempo potrà mai compensare..

Fonti:

1. Stanford HAI, “AI on Trial: Legal Models Hallucinate in 1 out of 6 Queries”, 23 mag 2024.

2. World Economic Forum, “Future of Jobs Report 2025”, 8 gen 2025.

3. McKinsey Global Institute, “The Economic Potential of Generative AI: The Next Productivity Frontier”, 14 giu 2023.

Spunti iniziali leggndo questi articoli:

MIT & Accenture, “The Productivity Effects of Generative AI: Evidence from a Field Experiment with GitHub Copilot”, 27 mar 2024.

GitHub Research, “Quantifying Copilot’s Impact on Developer Productivity and Happiness”, 2022.

 

Vibe Coding

Quando l’MVP diventa il “Mostly Vulnerable Product”

Negli ultimi mesi la Silicon Valley vibra—letteralmente—al ritmo del vibe coding. Tutto è cominciato il 2 febbraio 2025, quando Andrej Karpathy ha twittato di «un nuovo modo di programmare in cui ti abbandoni alle vibes e dimentichi che il codice esista» [1]. Da quel momento TikTok, newsletter e webinar hanno iniziato a gonfiare il sogno: descrivi la tua idea, l’AI scrive, tu incassi. Facile, no?

L’illusione del “funziona sul mio laptop”

Per carità, il vibe coding può produrre risultati dignitosi in contesti minimi: una landing page, un quiz da fiera, l’ennesimo clone di Flappy Bird. Business Insider racconta il caso di un negozio Etsy che ha raddoppiato il fatturato inserendo snippet generati dall’AI nel proprio Shopify [2]. Fantastico, finché le visite restano a due cifre e gli utenti sono amici di tua madre.

Appena si alza l’asticella—piattaforme multi-tenant, compliance, picchi di traffico—arrivano i «vibes di panico». Un’analisi su 450 snippet Copilot trovati in progetti reali mostra che circa un terzo contiene vulnerabilità di sicurezza serie [3]. E non parliamo solo di buffer overflow: spesso l’AI sceglie librerie modaiole ma abbandonate, aumentando il debito tecnico in stile buy-now-pay-never [4].

Dal prompt al pronto soccorso

Ma il codice compila!” Sì, anche le medicine scadute hanno colore gradevole. TechRepublic ha raccolto testimonianze di aziende finite offline per ore dopo aver messo in produzione patch scritte dall’AI senza revisione umana [5]. Banking, e-commerce, persino un ospedale: downtime a colpi di infinite retry.

Il paradosso è che la stessa industria riconosce il problema. Varun Mohan, CEO di Windsurf, spiega che l’aumento di produttività del 40 % dato dall’AI non riduce il bisogno di ingegneri: lo amplifica, perché ora conviene moltiplicare le idee e servono persone capaci di mantenerle vive [6].

Scalare? Sì, ma anche i bug

Nel batch invernale 2025 di Y Combinator, un quarto delle startup dichiara basi di codice generate per oltre il 95 % dall’AI [7]. Sulla carta è efficienza, nella pratica è un moltiplicatore di incognite: performance opache, logging fantasioso, dipendenze instabili. Studi sulla correzione automatica mostrano che, quando si chiede a un LLM di riparare vulnerabilità che esso stesso ha creato, il tasso di successo resta sotto il 50 % se non si interviene con tecniche di prompting iterative e feedback esterno [8].

“Deploy-and-forget” è una fiaba

Il sogno venduto dai creator—prompt, copia-incolla, deploy, Mojito in mano—ignora monitoring, rate-limiting, gestione chiavi API, costi cloud. È come comprare un van food-truck pensando che il motore sia opzionale perché “tanto serve solo per spostarsi di due metri”. L’AI accelera la bozza, ma senza architettura, test e osservabilità il prodotto finisce per assomigliare a una fronte sudata di patch su patch.

L’AI è il nuovo junior, non il CTO

Usare i modelli generativi per prototipare è sacrosanto: riduce la barriera d’ingresso e libera creatività. Ma confondere un prototipo che gira in locale con un servizio scalabile, sicuro e manutenibile è come scambiare un karaoke per la Scala di Milano. Il vibe coding è nitro dentro una Panda: divertentissimo in parcheggio, potenzialmente letale appena imbocchi l’autostrada.

Chi vuole davvero costruire software che resista agli urti deve impiegare l’AI con lo stesso rigore riservato agli esseri umani: code review, pen-test, observability, refactoring continuo. In breve, il valore non sta nel lasciarsi trasportare dalla vibe, ma nel trasformare quell’entusiasmo in ingegneria solida.

Riferimenti

[1] x.com/karpathy/status/1886192184808149383

[2] businessinsider.com/vibe-coding-etsy-seller-ai-boost-revenue-2025-4

[3] arxiv.org/abs/2310.02059

[4] arxiv.org/abs/2503.17181

[5] techrepublic.com/article/ai-generated-code-outages

[6] businessinsider.com/windsurf-ceo-ai-hiring-software-engineers-productivity-2025-4

[7] techcrunch.com/2025/03/06/a-quarter-of-startups-in-ycs-current-cohort-have-codebases-that-are-almost-entirely-ai-generated

[8] arxiv.org/pdf/2410.14321v1

dalla mia newsletter : metanerd.it

 

Il Futuro dell’Intelligenza Artificiale: Dalla Roadmap di OpenAI alla Distopia di “Manna”

OpenAI, guidata da Sam Altman, ha recentemente introdotto un sistema di classificazione a cinque livelli per misurare i progressi verso l’AGI (Artificial General Intelligence), ovvero l’intelligenza artificiale generale in grado di svolgere una vasta gamma di compiti complessi. Questo sistema di classificazione, presentato ai dipendenti durante una riunione, fornisce una roadmap chiara e basata su metriche per lo sviluppo dell’AGI.

Il primo livello corrisponde ai chatbot conversazionali attualmente disponibili, che possono gestire interazioni e conversazioni di base con gli utenti. I livelli successivi rappresentano un aumento progressivo delle capacità e dell’autonomia dell’IA. Il Livello 2 si concentra sulla risoluzione dei problemi a livello umano, mentre il Livello 3 introduce il concetto di agenti, ovvero sistemi in grado di intraprendere azioni.

Il Livello 4 è particolarmente interessante, poiché qui l’IA contribuisce all’invenzione e alla creazione, andando oltre la semplice risoluzione dei problemi. Questo livello implica un’IA in grado di pensare in modo creativo e innovativo, spingendo i confini della tecnologia. Infine, il Livello 5 rappresenta l’apice, con un’IA in grado di svolgere il lavoro di un’intera organizzazione, prendendo decisioni complesse e gestendo una varietà di compiti.

La classificazione di OpenAI fornisce una struttura chiara per comprendere lo sviluppo dell’AGI e i suoi potenziali impatti sulla società. Questi livelli ci aiutano a immaginare un futuro in cui l’intelligenza artificiale gioca un ruolo sempre più significativo, sollevando anche importanti questioni etiche e sociali. Con l’avanzamento della tecnologia, è fondamentale riflettere sul potenziale impatto di questi livelli di IA sul mondo del lavoro, sull’innovazione e sul nostro modo di vivere.

Questa notizia mi ha portato alla mente un libro che ho letto recentemente e che vi invito a leggere (l’autore lo ha da poco reso gratutito)


Il racconto presenta una visione distopica del futuro, dove l’avvento di un software intelligente chiamato “Manna” ha portato a una realtà inquietante. Manna, inizialmente implementato nella catena di fast food Burger-G, è progettato per sostituire i manager e ottimizzare le operazioni. Tuttavia, l’elemento distopico emerge quando Manna inizia a controllare e gestire i dipendenti, trasformandoli essenzialmente in robot umani.

Manna, attraverso cuffie e auricolari, fornisce istruzioni dettagliate e costanti ai dipendenti, dicendo loro esattamente cosa fare e quando farlo. Questo livello di microgestione elimina qualsiasi autonomia o pensiero critico da parte dei lavoratori, che diventano semplici strumenti per eseguire gli ordini di Manna. La narrazione descrive come Manna diriga ogni singolo aspetto del lavoro, dalla preparazione degli hamburger alla pulizia dei bagni, con tempi e procedure rigorosi.

L’avvento di Manna ha un impatto significativo sul futuro del lavoro. In primo luogo, Manna sostituisce i manager umani, dimostrando di poter gestire le operazioni in modo più efficiente ed economico. Questo porta a un significativo risparmio di costi per le aziende, che licenziano migliaia di manager e quadri intermedi. Inoltre, Manna ottimizza il lavoro dei dipendenti con salario minimo, aumentando la loro produttività e garantendo che ogni compito venga eseguito in modo preciso e tempestivo.

Tuttavia, l’aspetto più inquietante è l’effetto che Manna ha sui salari e sulla stratificazione sociale. Manna, essendo onnipresente e interconnesso, conosce le prestazioni di ogni singolo dipendente e ha il potere di licenziare e inserire nella lista nera i lavoratori. Ciò crea una dinamica di potere in cui i dipendenti sono costretti ad accettare il salario minimo o rischiare di rimanere disoccupati. Manna elimina essenzialmente qualsiasi possibilità di contrattazione salariale o di avanzamento di carriera per questi lavoratori.

La diffusione di Manna ad altre industrie, come la sanità e il diritto, indica che anche i lavori impiegatizi e professionali potrebbero essere suddivisi in compiti gestiti da Manna. Ciò porta a una società in cui i lavoratori sono divisi in due categorie: coloro che obbediscono a Manna e guadagnano il salario minimo, e coloro che sono al di sopra di Manna, come dirigenti, politici e professionisti di alto livello, che beneficiano del sistema e guadagnano stipendi elevati.

La conseguenza è una società stratificata in cui i lavoratori sono controllati e sfruttati, con poche possibilità di avanzamento o miglioramento. Il futuro descritto nel racconto è un avvertimento sui potenziali pericoli dell’intelligenza artificiale e dell’automazione senza restrizioni, che potrebbero portare a una perdita di autonomia, libertà e uguaglianza per i lavoratori.

Mi fermo per non spoilerare oltre, e ti consiglio vivamente di leggerlo (è molto breve tra l’altro)

Leggilo qui : https://marshallbrain.com/manna

articolo scritto per la mia newsletter : metanerd.it

 

Iperrealismo dell’intelligenza artificiale

Negli ultimi mesi, stiamo assistendo a un fenomeno affascinante e inquietante allo stesso tempo: l’iperrealismo dell’intelligenza artificiale. Con il progredire delle tecnologie, le immagini generate dall’A.I. stanno diventando sempre più indistinguibili dalla realtà, al punto che molte persone faticano a distinguere tra immagini reali e quelle prodotte dall’A.I.

Una delle ricerche più interessanti in tal senso è quella pubblicata pubblicata sul Psychological Science , Dove viene dimostrato che i volti generati dall’intelligenza artificiale non solo sono indistinguibili dai volti umani ma che, sono percepiti come più “umani” dei volti umani reali (questo fenomeno sorprendente e controintuitivo viene chiamato iperrealismo)

Un aspetto interessante discusso nell’articolo è il cosiddetto effetto Dunning-Kruger, un bias cognitivo in cui le persone meno competenti sovrastimano le proprie abilità. In questo contesto, significa che le persone meno capaci di rilevare AI sono le più convinte di essere corrette.

Infatti, se le persone confondono i volti dell’IA con quelli umani ma hanno scarsa fiducia nel loro giudizio, potrebbero rispondere con maggiore cautela (ad esempio, indagando su un profilo online). Invece, se sono convinti che il loro giudizio sia corretto, i loro errori potrebbero essere più gravi (ad esempio, cadere più facilmente in un profilo fraudolento in rete).

Nella ricerca è stato detto ai partecipanti che avrebbero visto circa 100 volti con il compito di decidere se ciascun volto raffigurasse un essere umano reale o generato dal computer. Dopo aver deciso se un volto era umano o artificiale, i partecipanti hanno valutato la loro fiducia in ciascuna prova da 0 ( per niente ) a 100 ( completamente).

L’immagine sotto mostra i risultati dei primi 5 volti sia per le immagini reali che quelle artificiali.
Nella prima riga (a) per esempio i 3 volti sono generati dall’AI ma più del 90% non è stato in grado di identificarlo, ma quello che più sorprende e l’opposto.
Nella seconda riga i 3 volti sono reali e sono stati giudicati con una media del 86% come non reali.

La ricerca ha quindi dimostrato che l’essere umano non è più in grado di riconoscere un volto umano da quello artificiale (o che l’AI è talmente abile nell’ingannare la nostra percezione). I volti generati dell’intelligenza artificiale appaiono più “reali” rispetto alle loro controparti umane . In particolare, i partecipanti non sono riusciti a utilizzare le caratteristiche distintive del viso per il rilevamento e hanno utilizzato in modo inappropriato i diversi segnali associati (proporzioni facciali, bellezza, familiarità ecc..), producendo iperrealismo.

Le caratteristiche che “ingannano” un essere umano nell’individuare se un volto è reale o meno sono :

  • Viso proporzionato
  • vivacità negli occhi
  • aspetto familiare
  • simmetria
  • volto attraente
  • pelle liscia

Se sei curioso e vuoi mettere alla prova le tue abilità di rilevamento dei volti puoi farlo sul sito Which Face Is Real


Rimanendo in tema, pochi giorni fa un utente su Reddit ha superato la verifica di identità richiesta da reddit creando un’ immagine tramite AI.

Oggi è semplice creare un’immagine artificiale reale con strumenti online quali MidJourney o ChatGpt o locali come con algoritmi che utilizzano StableDiffusion.

E’ proprio grazie a quest’ultimo che l’utente ha creato un immagine ed ha superato i controlli di autenticazione del sito. Inoltre, ha rilasciato il workflow completo in modo che tutti con pochi click potessero farlo.
Il post è diventato subito virale e l’utente è stato bannato e il post cancellato


Sopra abbiamo visto che un utente ha rilasciato un workflow in modo che da una foto è possibile generare un’immagine che supera i controlli di verifica.

Ma cos’è un workflow?

Un workflow è un insieme di processi che vengono eseguiti per generare immagini utilizzando l’intelligenza artificiale. Questi workflow sono strutturati in modo che possano essere facilmente seguiti e adattati per soddisfare diversi obiettivi di creazione di immagini.
Gli utenti hanno la possibilità di assemblare un flusso di lavoro per la generazione di immagini collegando vari blocchi, denominati nodi. Questi nodi includono operazioni comuni come il caricamento di un modello, l’immissione di prompt, la definizione di campionatori e altro ancora.
Qui in foto un mio workflow che prende una (mia) foto e la trasforma in una foto in cui indosso un abito elegante (in modo che risparmio sull’abito e acquisto una nuova gpu ;)

tratto dalla mia newsletter : Metà nerd e metà..verso