Iperrealismo dell’intelligenza artificiale

Negli ultimi mesi, stiamo assistendo a un fenomeno affascinante e inquietante allo stesso tempo: l’iperrealismo dell’intelligenza artificiale. Con il progredire delle tecnologie, le immagini generate dall’A.I. stanno diventando sempre più indistinguibili dalla realtà, al punto che molte persone faticano a distinguere tra immagini reali e quelle prodotte dall’A.I.

Una delle ricerche più interessanti in tal senso è quella pubblicata pubblicata sul Psychological Science , Dove viene dimostrato che i volti generati dall’intelligenza artificiale non solo sono indistinguibili dai volti umani ma che, sono percepiti come più “umani” dei volti umani reali (questo fenomeno sorprendente e controintuitivo viene chiamato iperrealismo)

Un aspetto interessante discusso nell’articolo è il cosiddetto effetto Dunning-Kruger, un bias cognitivo in cui le persone meno competenti sovrastimano le proprie abilità. In questo contesto, significa che le persone meno capaci di rilevare AI sono le più convinte di essere corrette.

Infatti, se le persone confondono i volti dell’IA con quelli umani ma hanno scarsa fiducia nel loro giudizio, potrebbero rispondere con maggiore cautela (ad esempio, indagando su un profilo online). Invece, se sono convinti che il loro giudizio sia corretto, i loro errori potrebbero essere più gravi (ad esempio, cadere più facilmente in un profilo fraudolento in rete).

Nella ricerca è stato detto ai partecipanti che avrebbero visto circa 100 volti con il compito di decidere se ciascun volto raffigurasse un essere umano reale o generato dal computer. Dopo aver deciso se un volto era umano o artificiale, i partecipanti hanno valutato la loro fiducia in ciascuna prova da 0 ( per niente ) a 100 ( completamente).

L’immagine sotto mostra i risultati dei primi 5 volti sia per le immagini reali che quelle artificiali.
Nella prima riga (a) per esempio i 3 volti sono generati dall’AI ma più del 90% non è stato in grado di identificarlo, ma quello che più sorprende e l’opposto.
Nella seconda riga i 3 volti sono reali e sono stati giudicati con una media del 86% come non reali.

La ricerca ha quindi dimostrato che l’essere umano non è più in grado di riconoscere un volto umano da quello artificiale (o che l’AI è talmente abile nell’ingannare la nostra percezione). I volti generati dell’intelligenza artificiale appaiono più “reali” rispetto alle loro controparti umane . In particolare, i partecipanti non sono riusciti a utilizzare le caratteristiche distintive del viso per il rilevamento e hanno utilizzato in modo inappropriato i diversi segnali associati (proporzioni facciali, bellezza, familiarità ecc..), producendo iperrealismo.

Le caratteristiche che “ingannano” un essere umano nell’individuare se un volto è reale o meno sono :

  • Viso proporzionato
  • vivacità negli occhi
  • aspetto familiare
  • simmetria
  • volto attraente
  • pelle liscia

Se sei curioso e vuoi mettere alla prova le tue abilità di rilevamento dei volti puoi farlo sul sito Which Face Is Real


Rimanendo in tema, pochi giorni fa un utente su Reddit ha superato la verifica di identità richiesta da reddit creando un’ immagine tramite AI.

Oggi è semplice creare un’immagine artificiale reale con strumenti online quali MidJourney o ChatGpt o locali come con algoritmi che utilizzano StableDiffusion.

E’ proprio grazie a quest’ultimo che l’utente ha creato un immagine ed ha superato i controlli di autenticazione del sito. Inoltre, ha rilasciato il workflow completo in modo che tutti con pochi click potessero farlo.
Il post è diventato subito virale e l’utente è stato bannato e il post cancellato


Sopra abbiamo visto che un utente ha rilasciato un workflow in modo che da una foto è possibile generare un’immagine che supera i controlli di verifica.

Ma cos’è un workflow?

Un workflow è un insieme di processi che vengono eseguiti per generare immagini utilizzando l’intelligenza artificiale. Questi workflow sono strutturati in modo che possano essere facilmente seguiti e adattati per soddisfare diversi obiettivi di creazione di immagini.
Gli utenti hanno la possibilità di assemblare un flusso di lavoro per la generazione di immagini collegando vari blocchi, denominati nodi. Questi nodi includono operazioni comuni come il caricamento di un modello, l’immissione di prompt, la definizione di campionatori e altro ancora.
Qui in foto un mio workflow che prende una (mia) foto e la trasforma in una foto in cui indosso un abito elegante (in modo che risparmio sull’abito e acquisto una nuova gpu ;)

tratto dalla mia newsletter : Metà nerd e metà..verso

 

Il vantaggio delle allucinazioni

I Large Language Models (LLM) sono assistenti utili: eccellono nel combinare concetti e sanno leggere, scrivere e programmare per aiutare le persone a risolvere i problemi. Ma potrebbero scoprire conoscenze completamente nuove?

Poiché è stato dimostrato che gli LLM “soffrono” di allucinazioni creando informazioni errate, utilizzarli per fare scoperte verificabilmente corrette è una sfida. Ma cosa accadrebbe se potessimo sfruttare la creatività degli LLM identificando e sviluppando solo le loro idee migliori?

Una nuova ricerca di Google ha fatto proprio questo, ampliando la nostra comprensione di ciò di cui sono capaci i modelli di intelligenza artificiale.

Il paper dal titolo “Mathematical discoveries from program search with large language models”, pubblicato su Nature, esplora l’uso di Large Language Models (LLM) per risolvere complesse sfide matematiche e scientifiche

A diagram of the FunSearch process showing screenshots of code, a network and images of graphs with checkmarks and x's.

I ricercatori hanno sviluppato un nuovo metodo chiamato FunSearch (ricerca nello spazio delle funzioni) e lo hanno applicato al problema del cap set – un problema di lunga data nella matematica combinatoria estrema – per scoprire nuove soluzioni al problema che vanno “oltre quelle più conosciute, “secondo gli autori.

Questa è la prima volta che un modello di intelligenza artificiale viene utilizzato per scoprire nuove soluzioni a problemi aperti in scienza e matematica, ma gli autori hanno anche dimostrato un’applicazione nel mondo reale di questa scoperta applicandola al problema dell’ “online bin-packing” , che può essere utilizzato per applicazioni come la creazione di data center più efficienti e l’imballaggio dei camion di trasporto in modo più efficiente.

A differenza della maggior parte degli approcci di ricerca informatica, FunSearch cerca programmi che descrivano come risolvere un problema, piuttosto che quale sia la soluzione

Questo studio evidenzia come l’intelligenza artificiale stia emergendo come uno strumento potente non solo per l’elaborazione del linguaggio, ma anche per la scoperta scientifica e la risoluzione di problemi complessi.


Nel 2023, l’intelligenza artificiale ha visto significativi progressi in varie aree, tra cui modelli di linguaggio, elaborazione di immagini, generazione di immagini e video editing. Riassumo qui i più influenti in questi ambiti e i vantaggi che hanno portato o potrebbero portare:

  1. Sparks of AGI di Microsoft: Analizza una versione iniziale di GPT-4, che rappresenta una nuova classe di modelli di linguaggio di grandi dimensioni con capacità di intelligenza più generalizzata. GPT-4 ha mostrato capacità impressionanti in diversi domini, inclusi matematica, codifica, medicina, legge e psicologia. Questo lavoro suggerisce che GPT-4 potrebbe essere considerato un primo, seppur incompleto, esempio di intelligenza artificiale generale (AGI)​​.
  2. PALM-Edi Google: Introduce un modello di lingua che incorpora input sensoriali continui, collegando parole e percezioni del mondo reale. Questo modello di linguaggio integra frasi multimodali con informazioni visive, di stima dello stato e testuali, dimostrando notevoli capacità in compiti come la pianificazione della manipolazione robotica sequenziale e il question answering visivo​​.
  3. LLaMA 2 di Meta AI: È una versione migliorata del suo predecessore, addestrata su un nuovo mix di dati, che esibisce prestazioni superiori in termini di utilità e sicurezza rispetto ai modelli open-source e comparabili a quelli closed-source. Questo lavoro mira a contribuire allo sviluppo responsabile di modelli di linguaggio di grandi dimensioni (LLM)​​.
  4. Generative Agents di Stanford University e Google: Presenta agenti generativi in grado di simulare comportamenti umani credibili, con applicazioni in scenari di role-play e prototipazione sociale nei mondi virtuali. Questi agenti possono memorizzare esperienze, sintetizzare ricordi e recuperarli dinamicamente per la pianificazione del comportamento​​.
  5. LLaVA by University of Wisconsin–Madison, Microsoft, and Columbia University:
    LLaVA (Large Language and Vision Assistant), un modello multimodale all’avanguardia che sfrutta GPT-4, basato solo sul linguaggio, per generare dati che seguono istruzioni sia per testi che per immagini. Questo approccio innovativo estende il concetto di “instruction tuning” allo spazio multimodale, consentendo lo sviluppo di un assistente visivo a uso generale.
  6. Segment Anything di Meta AI: Introduce un modello innovativo per la segmentazione di immagini, creando il più ampio dataset di segmentazione esistente, con oltre 1 miliardo di maschere per 11 milioni di immagini. Il modello SAM (Segment Anything Model) dimostra prestazioni competitive rispetto ai risultati completamente supervisionati su una gamma diversificata di compiti a valle​​.
  7. DALL-E 3 di OpenAI: Affronta una delle sfide più significative nei modelli di generazione di immagini da testo: il prompt following. Il documento presenta un sistema di didascalie per immagini specializzato, in grado di generare didascalie altamente descrittive e precise, migliorando significativamente le capacità del modello DALL-E nel seguire i prompt ed essere più preciso nella generazione dell’immagine​.
  8. ControlNetdi Stanford UniversityUna struttura di rete neurale progettata per controllare modelli di diffusione preaddestrati e supportare condizioni di input aggiuntive. ControlNet apprende condizioni specifiche per il compito in modo end-to-end e dimostra un apprendimento robusto anche con piccoli set di dati di allenamento​​.
  9. Gen-1 di Runway: Introduce un avanzamento rivoluzionario nell’editing video attraverso l’unione di modelli di diffusione generativi guidati da testo. Questo modello ha superato sfide significative nell’editing video basato su descrizioni testuali o visive​​.
  10. DreamerV3: Un algoritmo innovativo basato su modelli che dimostra prestazioni eccezionali in una vasta gamma di domini. DreamerV3 combina percezione ricca e formazione immaginativa, incorporando tre reti neurali per la predizione di risultati futuri, la valutazione del valore di diverse situazioni e l’apprendimento su come navigare verso situazioni di valore​​.

tratto dalla mia newsletter : Metà nerd e metà..verso

 

Sei strategie per ottenere il meglio da ChatGPT

In attesa di chatGPT 4.5 (voci di corridoio parlano di un’ uscita imminente di un GPT 4.5-turbo dopo i recenti leak che spiegherebbe il miglioramento delle prestazioni delle ultime settimane) openAI ha rilasciato la propria Guida al Prompt Engineering.

La guida è utile per chiunque cerchi di massimizzare i LLM.

Ecco le 6 strategie delineate per ottenere risultati migliori da GPT-4:

  1. Scrivi istruzioni chiare
    Per ottenere il massimo dai modelli di intelligenza artificiale, è importante essere specifici nelle richieste. Se desideri risposte più brevi o avanzate, specifica le tue esigenze. Fornire esempi del formato desiderato aiuta il modello a comprendere meglio le tue preferenze, riducendo il margine di errore nell’interpretazione delle tue richieste.
  2. Fornisci un testo di riferimento
    Per ridurre il rischio di ricevere risposte inesatte dai modelli linguistici, specialmente su argomenti complessi o richieste di citazioni, è utile fornire testi o contesti di riferimento. Questo approccio aumenta la probabilità di ottenere risposte più precise e meno inventate.
  3. Suddividi le attività complesse in sottoattività più semplici
    Per minimizzare gli errori quando si utilizza un modello linguistico, è consigliabile suddividere i compiti complessi in una serie di compiti più semplici e modulari. Questo approccio, simile alla decomposizione di sistemi in ingegneria del software, consente di utilizzare i risultati dei compiti precedenti come input per quelli successivi, rendendo l’intero processo più gestibile e accurato.
  4. Dai al modello il tempo di “pensare”
    Per ridurre gli errori di ragionamento nei modelli linguistici, è utile chiedere loro di esporre il proprio processo di pensiero prima di fornire una risposta. Questo metodo, simile al prendersi il tempo per risolvere un calcolo, permette al modello di procedere passo dopo passo verso la soluzione, migliorando l’affidabilità e l’accuratezza delle risposte.
  5. Utilizza strumenti esterni
    Per massimizzare l’efficacia dei modelli linguistici, è consigliabile integrarli con altri strumenti. Sistemi di recupero testi possono fornire al modello informazioni rilevanti, mentre motori di esecuzione di codice possono assistere in calcoli e nell’esecuzione di codici. Utilizzando strumenti specializzati per compiti specifici, si ottiene una sinergia che migliora l’affidabilità e l’efficienza complessiva delle risposte.
  6. Testa le modifiche in modo sistematico
    Per assicurarsi che le modifiche ai prompt portino a un miglioramento effettivo delle prestazioni di un modello linguistico, è importante misurare queste prestazioni. Questo si fa definendo una suite di test completa che valuti le modifiche su un ampio e rappresentativo insieme di esempi, anziché solo su pochi casi isolati. Questo approccio consente di valutare in modo più accurato l’impatto complessivo delle modifiche.

tratto dalla mia newsletter : Metà nerd e metà..verso

 

Terreni nel metaverso: SandBox e Decentraland

Dal momento che Facebook ha annunciato il cambio in Meta e il “metaverso” è in hype molti progetti esistenti hanno avuto un boost importante.
Tra i più promettenti ci sono quelli di The SandBox e di Decentraland ed entrambi permettono di acquistare un pezzo di terreno sotto forma di NFT.

Ma quale acquistare tra i due  e cosa è possibile farci? 

The Sandbox è stato fondato nel 2012 dove si presentano al mercato con un gioco mobile in 2D . Nel 2017 iniziano a migrare in 3D sulla blockchain di Ethereum e nel 2018 viene acquisita da Animoca Brands, una società di software con sede a Hong Kong, e da allora ha avuto molteplici investimenti per sviluppare nel mondo virtuale.
Il team dietro The Sandbox e  Pixowl, è sono nel settore dei giochi da molto tempo .

The Sandbox ha collaborato con Skybound Entertainment (la società dietro The Walking Dead), Big Fan (progetto di eSport), Ubisoft e persino Snoop Dogg. Sono stati anche recentemente supportati da SoftBank, una delle più grandi società di investimento al mondo, con un round di finanziamento di $ 93 milioni.

The Sandbox consiste di 166.464 NFT che rappresentano dei terreni che possono essere anche raggruppati in distretti (di proprietà di 2 o più persone).

Al momento il più  economico è questo  acquistabile su Opensea a 5 ETH (circa $16K)

Acquistando un terreno su SandBox è possibile

Un terreno è ampio 96×96 metri e la società mette a disposizione software gratuiti per creare sia gli asset, sia il gameplay.

Il metaverso di Sandbox è in modalità beta e recentemente si è concluso il lancio della versione alpha .  

Tra i prossimi obiettivi c’è quello di creare una versione compatibile per varie console come Xbox e Playstation, oltre che avere 5000 giochi disponibili entro il 2023 

Uno altro obiettivo interessante è quello di creare dei nuovi lavori in-game  in cui le persone possano lavorare come farebbero nel mondo esterno.

La moneta alla base del progetto è $SAND che ha un prezzo (al momento) di 5$ con 900 milioni di monete in circolazione (sui $3 miliardi disponibili)
Non bruciano i loro token e li rimettono invece nell’ecosistema come sovvenzioni ai creatori e ai pool di staking. 

Decentraland nasce nel 2015 come progetto 2D che si è poi evoluta in un mondo 3D nel corso degli anni. Disponibile al pubblico dal 2020 ed è diventato uno dei più grandi ecosistemi del metaverso in tutto il mondo.  Il team dietro Decentraland è la Fondazione Decentraland  .

Decentraland è supportato da oltre 20 investitori, come Digital Currency Group, CoinFund, Animoca Brands , e ha stretto una partnership con Samsung, Polygon e persino il governo sudcoreano.

Decentraland ha 90.601 appezzamenti di terreno e possono essere acquistati nel mercato Decentraland con il suo token nativo $MANA. Questi sono raggruppati

in appezzamenti individuali, proprietà (lotti multipli), distretti (appezzamenti con temi simili) e piazze (appezzamenti non commerciabili di proprietà della comunità). Come in The Sandbox, puoi modificare i lotti e monetizzarli sia in affitto o costruendoci giochi per guadagnare.  

Al momento il più economico è  questo acquistabile sul loro marketplace con 4.288 MANA ($13K)

Un terreno è ampio 16×16 metri ed ha dei limiti di costruzione all’interno della scena (es. 10K triangoli, max  200 elementi, max 300 meshes,ecc.)  

Decentraland, al momento, non ha una roadmap pubblica ed è molto guidato dalla comunità.
Tra gli obiettivi ha quello di portare creators, brand e celebrità nel metaverso e consentire loro di fare drop e pubblicità NFT oltre che rendere Decentraland interoperabile con  altri metaversi.

Decentraland ha ampliato lo spazio NFT con gallerie d’arte in-game dove le persone possono acquistare e vendere opere d’arte e persino parlare con gli artisti direttamente tramite chat vocale. Inoltre, Decentraland ha recentemente collaborato con Sotheby, uno dei più grandi banditori d’asta al mondo. Tra le vendite più interessanti effettuate all’interno di queste gallerie virtuali, c’è sicuramente quella di 914 Wonder Woman NFT dell’ex disegnatore di fumetti DC, Jose Delbo, per 1,85 milioni di dollari.

E proprio in questi giorni i vertici di Decentraland hanno festeggiato l’ingresso nel proprio Metaverso di 837X, un enorme spazio virtuale di Samsung pieno di token da riscattare e rivendere autonomamente.

837x di Samsung nel metaverso di Decentraland


La moneta alla base del progetto è $MANA che ha un prezzo (al momento) di 3.23$. L’offerta totale di MANA era fissata inizialmente a 2,8 miliardi ma  600 milioni sono stati bruciati per la vendita di terreni all’asta (attualmente 1.6 Miliardi in circolazione) .

Quale dei due terreni acquistare?

Penso sia una scelta personale, sono affascinato da entrambi i mondi. Vedo The Sandbox più pronto al momento e lo dimostra i numerosi brand che stanno entrando (Ubisoft, Adidas, Atari, Snopp Dogg ecc. ) ed inoltre ha una maggiore coerenza grafica (dovuto alla grafica a blocchi stile Minecraft) che potrebbe rendere più agevole l’esperienza utente nel passaggio da un gioco all’altro.

Dall’altro Decentraland potrebbe essere un investimento più interessante in quanto più acerbo e con un numero di terreni più scarsi che potrebbero far aumentarne il valore. Lato grafico è più semplice importare i modelli 3D di qualsiasi altro mondo (dato che sono mesh 3D e l’importazione di NFT è molto semplice all’interno del sistema).
Ho solo un dubbio sulla non uniformità dei vari “mondi” e si potrebbe avere un effetto alla “myspace” con un’alta personalizzazione degli spazi, ma con poca coerenza tra gli stessi.

 

Il lato oscuro degli NFT

Da appassionato di tecnologia e criptovalute, ho visto la fantastica crescita degli NFT fino al raggiungimento dell’hype attuale.

Ormai tutti ne parlano, spesso associandolo all’altro hype del momento : il metaverso.

Sono le nuove paroline magiche che fanno sentire tutti sul pezzo, superando ormai le vecchie “deep learning” e “intelligenza artificiale”.

Sorrido sempre a leggere articoli sui media, dell’abuso dei trend tecnologici, e di come si diventi esperti soltanto citando certe parole o mettendole insieme per creare progetti campati in aria.

Quello che però mi spaventa è l’informazione poco precisa che arriva ai non addetti ai lavori e le conseguenze che poi hanno sulle persone (e sull’adozione della tecnologia stessa).

Gli NFT sono importanti è grazie ad essi che possiamo certificare la proprietà di un oggetto digitale e possiamo avere accesso a determinate dinamiche nel metaverso, ma possono anche diventare pericolosi, nel momento in cui si vogliano acquistare e non si conosce bene questo mondo.

Mi riferisco in special modo agli scam e dei personaggi che faranno di tutto per poter rubare i beni digitali (e non).

L’obiettivo di questo articolo è mettere in guardia ed essere preparati, in modo da non perdere una delle più grandi opportunità che la tecnologia ci ha fornito ed essere pronti per quando il metaverso sarà parte della nostra vita.

Per poter accedere a questo mondo per prima cosa abbiamo bisogno di un wallet, ovvero un portafoglio virtuale in cui potranno essere caricate criptovalute.

Il wallet oltre ad essere il nostro portafoglio sarà la nostra chiave identificativa per accedere  al web3, il nuovo web decentralizzato.

Il wallet sarà sempre più importante è presente nella nostra navigazione futura, un pò come il classico login per il primo web e i login social per il web 2.0

Come wallet, consiglio di utilizzare metamask, un’estensione per il browser (ma anche un’app mobile) che dà la possibilità di gestire tutte le criptovalute ed accedere alle funzionalità necessarie per acquistare o creare NFT.

Di base un NFT non è altro che un media (immagine,,video,ecc..) con delle informazioni associate (metadati) memorizzato in una blockchain  (es. ethereum)

Crearne uno è semplice, con strumenti come OpenSea, dove basta compilare un modulo e pagare poi la fee (tramite il wallet) necessaria per completare la transazione nella blockchain.

Ma non aspettatevi che basta questo per creare un NFT che valga 532$ Milioni !  

Dietro a un NFT o una collezione di NFT di valore esiste un progetto o un’opera d’arte che la rappresenta.

In genere prima di approdare su mercati secondari (come lo stesso opensea) una collezione NFT viene lanciata nel mercato con un drop.

Un drop è un processo con cui è possibile “mintare” (procedura per assegnare un nft al proprio wallet dopo aver pagato la relativa “gas” fee) un oggetto che fa parte di una collezione.

Il drop viene lanciato ad uno specifico orario dopo una lunga attesa che spesso passa da una community (normalmente discord e twitter)  dove è possibile reperire informazioni sul progetto e sui suoi autori.

Da quel momento ogni nuovo “mint”  genererà un nuovo NFT con delle caratteristiche uniche (tramite un algoritmo) che inciderà in maniera rilevante sul valore (e sull’utilità) dell’oggetto.

Infatti, questo processo genererà la scarsità, uno degli elementi fondamentali per determinare il valore di un NFT.

In genere le collezioni/drop sono composte da 10000 elementi (il numero può variare) e le combinazioni dei metadati (traits) che lo compongono possono essere altissime (una combinazione della cardinalità di ogni caratteristica). L’algoritmo ne produrrà solo un elenco ristretto e solo quando la collezione sarà completata sarà possibile capire il vero valore dell’oggetto posseduto.

Al momento del drop il prezzo viene fissato ad una cifra non molto alta (in genere 0.025 eth, circa 80$).

Se un drop va a buon fine, in pochi minuti va in sold out ed è possibile acquistarli solo dai mercati secondari (opensea, rarible) dove verranno venduti dalle 2 alle 50 volte il prezzo d’acquisto.

Una volta sul mercato secondario l’attività di acquisto / vendita farà aumentare il valore dell’NFT impostando di volta in volta il nuovo floor (il minimo prezzo d’acquisto) 

Al momento, per esempio, per poter acquistare un BAYC (una delle collezioni più note nel mondo degli NFT) sono necessari 73.5 ETH (250.000 dollari circa) e al lancio del loro drop anche se per pochi minuti si potevano ottenere per 0.08 ETH!

A questo punto potreste essere affascinati dal valore di un NFT o di un collezione e provare a prenderli (e fate bene) ma bisogna stare attenti. 

Acquistare  un NFT che può prendere valore (fino a far guadagnare numerose volte l’investimento iniziale) è sicuramente un ottimo affare, ma lo è di più realizzare un drop di successo .

Un drop di successo fa guadagnare al suo creatore cifre importanti in poche ore di lancio. Per esempio 10k NFT venduti a 0.025 sono 250 ETH (che al cambio attuale sono circa un milione di dollari!)

Questo business attira molti, specialmente truffatori che rappresentano il lato oscuro di questo mondo. Infatti è qui che si annidano numerose truffe.

La prima truffa si basa sui fake drop. Ci sono persone che duplicano completamente un drop, contattano i vari utenti nelle community ed in maniera subdola convincono che il loro drop sia quello reale. Ovviamente, sono molto abili e spesso è difficile capire quale sia la giusta community o il giusto sito per partecipare all’acquisto.

Inoltre fanno leva sulla FOMO (Fear of missing out), ovvero la paura di perdere l’occasione, insita nella natura umana. Spesso i drop terminano in pochi minuti e basta arrivare qualche secondo più tardi, per perdere l’occasione di possedere un NFT di valore. Ed è proprio su questo sentimento che fanno leva questi personaggi, non dando tempo alle persone di verificare le fonti o il sistema stesso.

Un’altra truffa è il rug pull. Sono progetti completi, annunciati su portali dedicati, con roadmap, team e partner che una volta terminato il drop (anche durante) spariscono e non danno seguito al progetto. E si rimane proprietari di NFT che non valgono nulla.

Per esempio The Evolved Apes  è una collezione di  10,000 NFTs il cui propietario è sparito con 2.7 Milioni di dollari, e gli utenti sono rimasti con degli NFT che non hanno valore (pochi dollari, ma nessun acquirente)

Un altro rischio  a cui si va incontro è quello di finire preda degli scammers (truffatori di professione) che in questo ambiente ancora privo di norme e controlli hanno trovato terreno fertile. Alcuni di essi i potrebbero notare  (tutte le transazioni blockchain sono pubbliche) che avete un portafoglio importante o possedete un NFT rilevante, in questo caso potreste finire nei loro radar e correre il rischio di essere raggirati . 

Il loro obiettivo sarà quello di  accedere al vostro wallet per “svuotarlo”, e per farlo cercheranno di raggirarvi in tutti i modi possibili  (finta assistenza tecnica, impersonando persone, regalando criptovalute, effettuando adescamenti social, creando falsi marketplaces, ecc..)

Il mondo degli NFT è molto affascinante, ma molto difficile se non si ha la giusta attenzione, e spesso quella nemmeno basta. Spesso ci vogliono tool di monitoraggio e di alert e magari essere supportati da persone che hanno la giusta esperienza.

Vi lascio con dei piccoli suggerimenti utili per evitare di incorrere in problemi:

  • Non condividete MAI la seed phrase o la  password del vostro metamask  
  • Non cliccate mai sui link che vi promettono  giveaways, airdrops, o altro.
  • Utilizzate un portafoglio secondario dove conservate i vostri beni e tenetelo al sicuro.
  • Utilizzate un wallet hardware come un  Ledger o un Trezor.  Sono dispositivi sicuri che conservano i vostri fondi offline.  
  • Utilizzate un  password manager come LastPass, in modo da utilizzare password molto più complesse  e difficili da individuare
 

Viaggio verso il metaverso

La necessità di osservare la realtà circostante è nata con l’uomo. Sebbene da allora si siano fatti innumerevoli passi in avanti, quello di guardare il mondo resta un bisogno vivo, alla base del nostro quotidiano. Il modo più diffuso di farlo, oggi, è attraverso immagini statiche o dinamiche. Film, documentari o fotografie ci permettono di conoscere il mondo attraverso il punto di vista del regista o del fotografo: luoghi non conosciuti o molto distanti improvvisamente diventano tanto vicini da poter essere quasi toccati, ampliando così anche la conoscenza di ciò che ci circonda. 

Non sempre, però, quello che guardiamo è reale: la sapiente inquadratura di un soggetto o di una scena, ritratti in un modo particolare, possono dare vita a un’immagine in grado addirittura di cambiarne il contesto.

Fino a qualche anno fa la produzione di queste immagini era possibile solo tramite televisione o fotografia; oggi, invece, una buona parte viene effettuata tramite smartphone dotati di una potenza di calcolo estrema e software molto avanzati. 

Questi stessi dispositivi, oltre a riprodurre immagini o video, permettono di guardare in tempo reale, sullo schermo, elementi non esistenti che reagiscono col mondo circostante tramite una tecnologia chiamata realtà aumentata. 

I nuovi smartphone hanno svariate applicazioni che permettono di modificare le immagini in maniera mai immaginata in passato. 

Partendo dalla classica modifica di immagini con software di editing fotografico come photoshop, con cui è possibile correggere un’immagine eliminando sfondi, aggiungendo elementi, migliorando il corpo umano e così via, si giunge a tool più sofisticati, che effettuano alterazioni utilizzando modelli matematici, grazie all’intelligenza artificiale. 

Tra questi annoveriamo applicazioni come ModiFace, che permettono a una donna di vedere il proprio volto truccato in tempo reale tramite fotocamera, utilizzando addirittura prodotti reali che poi potrà acquistare; o come Face app, diventata virale non solo perché in grado di invecchiare il volto, ma anche per la capacità di migliorarlo, o trasformarlo aggiungendo elementi come barba, occhiali, taglio di capelli o addirittura di stravolgerlo, mutandolo in quello di una persona di sesso opposto.  

Quest’ultimo ‘effetto’ è uno dei punti di forza di Snapchat che, in tempo reale, grazie alla fotocamera, permette lo switch di sesso con una qualità davvero impressionante.

Questi ultimi effetti sono possibili grazie a modelli matematici generati da algoritmi di intelligenza artificiale che, analizzando numerose immagini della stessa tipologia, hanno individuato pattern comuni, replicati poi mediante modifiche su immagini dove non erano presenti. 

Una delle applicazioni di questa tecnologia è su una tecnica chiamata ‘deep fake’ , ovvero la possibilità di sostituire completamente un volto con un altro, sia in immagini che in video. Tale tecnica è diventata famosa nel momento in cui è stata applicata alla pornografia. Sono diventati virali, ad esempio, spezzoni di video porno in cui i reali attori sono stati ‘sostituiti’ da attrici di Hollywood o personalità famose come cantanti o politici. 

La cosa straordinaria di questa tecnica è la semplicità con cui chiunque può applicarla, semplicemente utilizzando il software e procurandosi una serie di immagini dove è presente il volto della ‘vittima’. Non è un caso, infatti, se si utilizza questo termine: un utilizzo massiccio di deep fake si è registrato tra i più giovani che, impiegando la tecnologia con un fine sbagliato, hanno diffuso in rete, per vendetta, video della ex per screditarla

Ovviamente questa tecnica può essere molto utile in campo cinematografico. Basti pensare alla possibilità di ingaggiare delle comparse per girare un film e poi sostituirne il volto con quello di un altro attore, più famoso; o addirittura immaginare la facoltà di realizzare un volto realistico, a una definizione altissima, senza che questo esista veramente. E perché non un intero corpo?! Esistono già delle tecniche operanti in tal senso, anche se al momento si trovano ad uno stato iniziale. Oggi è possibile, per esempio, creare un filmato di una persona che balla solo partendo da una foto in cui il soggetto è fermo

L’intelligenza artificiale può essere applicata anche all’audio oltre che alle immagini. È possibile, infatti, sostituire la voce di una persona con un’ altra, ovvero parlare con la propria voce ma riprodurre quella di un altro individuo come un attore o un politico; è inoltre possibile, addirittura, far leggere un testo da una voce appartenente ad una persona senza che quest’ultima ne abbia mai pronunciata una singola frase

La generazione di testi è un altro campo importante dell’IA: oggi esistono algoritmi, come per esempio il GPT-2 di OpenAI in grado di creare un testo, non esistente e dotato di senso compiuto, partendo da una qualunque frase. 

Nel testo successivo è dimostrata l’applicazione dell’algoritmo GPT2 partendo da una prima riga contenente il testo “Can a computer write a story?”. Il risultato, riportato fedelmente, non contiene modifiche per evitare che la traduzione in italiano potesse incidere sul senso originario. 

Can a computer write a story?

If you can write your story in such a way that I can learn the structure, then yes. You will be rewarded by being included, and, perhaps, even rewarded by being read. There will be a story, and hopefully for me there will be a reader’s story. I hope to be able to write about this subject, and perhaps become an “expert”, for a short while. (For those interested, I have a blog called “The Best of Hacks” where I share the “best of” and “worst of” my writing. This was created not so much for the purpose of “self-promotion” as to see what others are up to when they get a story of theirs published.)
So, if I’m to write a story that’s good enough to be called “the best in the world” then, yes, I think it’s possible. Can it be done? I don’t know.
In the meantime, I think that writing an article is a pretty good way to learn to write a story.

L’intelligenza artificiale gioca un ruolo fondamentale come tecnologia in grado di cambiare e aumentare la realtà, ma gli algoritmi, per quanto evoluti, sarebbero inutili senza avere una grande mole di dati (come, per esempio, le migliaia di immagini o milioni di volti indispensabili per poter imparare a generarne uno autonomamente). 

Questi dati, oggi, si trovano ovunque, ma in special modo nei social network e in internet in generale. 

Da anni siamo tutti connessi l’uno con l’altro e con i dispositivi che ci circondano. 

A partire da social come Facebook, dove interagiamo con i nostri conoscenti condividendo contenuti ed informazioni personali, o Instagram, dove mostriamo foto dei temi che abbiamo più a cuore, o addirittura documentiamo la nostra vita tramite stories; pensiamo ancora a Twitter, dove in tempo reale commentiamo uno show televisivo, una conferenza o seguiamo account i cui argomenti ci coinvolgono, o a Linkedin, dove condividiamo con il mondo il nostro percorso di studi, quello lavorativo e così via.

Se da un lato i social network ci connettono e ci permettono di sentirci più vicini, o di essere aggiornati in tempo reale su svariati argomenti, dall’altro lato costituiscono un pericolo da non sottovalutare. 

Un esempio importante è stato il caso Cambridge Analytica, riguardante Facebook, che è stato un vero e proprio scandalo. Una società, approfittando della leggerezza sulla privacy del social, ha raccolto milioni di dati personali di utenti ignari, ne ha tracciato un profilo comportamentale estremamente dettagliato ed ha venduto queste informazioni a terze parti. 

Quelle stesse informazioni hanno permesso di veicolare messaggi ‘promozionali’  su tantissimi utenti, cambiando addirittura la percezione della realtà e portando cambiamenti storici rilevanti come la Brexit o l’elezione di Trump negli Stati Uniti, come ha rilevato Carole Cadwalladr, cronista dell’Observer al TED di Vancouver (e che è stata bannata a vita da Facebook per questo). 

Ciò perché, tramite Facebook, chiunque ha accesso ad uno stream di informazioni che è una miscela di contenuti di persone seguite o sponsorizzati. 

Se si ha la capacità di dirigere o controllare questo flusso, si ha la possibilità di modificare la percezione dell’utente. 

A questi dati personali si aggiungono i dati di tracciamento che vengono creati in maniera automatica, e spesso poco trasparente, da parte dei sistemi informatici. 

Cosa vediamo su Netflix, cosa ascoltiamo su Spotify, ciò che leggiamo su Kindle, quello che acquistiamo su Amazon, ciò che prenotiamo su Booking fa parte di una rete di informazioni atte a profilare l’utente. Fa riflettere ancor più considerare che queste informazioni, poi, possono essere messe in relazione con i contenuti delle email o delle chat personali (whatsapp o messenger).

Non finisce qui. La raccolta di dati e profilazione dell’utente risulta essere ancora più invadente se si pensa ai sistemi vocali come Siri, Alexa, Google che, se da un lato ci forniscono un servizio interessante come quello di avere contenuti multimediali tramite l’utilizzo della voce, sono, per l’appunto, sempre in ascolto per poterlo fare

Si tratta di sistemi in grado, quindi, di ascoltare e decodificare dalla nostra voce informazioni personali come gli stati d’animo, o semplicemente parole chiave dalle nostre conversazioni. 

Ovviamente queste informazioni non sono limitate a una ricerca effettuata da uno smartphone o da un computer di casa, ma riguardano i tanti dispositivi intelligenti di cui non possiamo più fare a meno o che vanno affermandosi, quali i navigatori per la selezione di un tracciato, le auto “intelligenti” come la Tesla, che ottimizzano il percorso per risparmiare il tempo di attesa per la ricarica elettrica, o le telecamere di sorveglianza poste ormai ovunque.

Tutte queste agevolazioni che la tecnologia offre, vengono ‘pagate’ anche con il rilascio di dati personali, e spesso queste informazioni non sono utilizzate in maniera trasparente. Ci si ritrova, così, a essere obiettivo di una campagna di retargeting: inseguiti dalla pubblicità di un viaggio subito dopo aver parlato con il partner del desiderio di fare una vacanza, bombardati dal suggerimento di un film da vedere perché ne sia agevolata la distribuzione, o tampinati sul feed social dalla recensione di un prodotto sul cui acquisto eravamo indecisi, e così via. Tutte informazioni utili e mirate, ma che rendono l’utente sempre più controllato.

Dove arriveremo nei prossimi anni? Oggi viviamo già il futuro lontanamente immaginato nemmeno una ventina di anni fa. Ogni anno c’è un miglioramento della tecnologia che diventa più rapida e potente, e in grado di miniaturizzare i dispositivi che la utilizzano.

Dato che osserviamo il mondo principalmente con i nostri occhi, immagino che il futuro possa portare dei cambiamenti proprio in questo settore.

Oggi esistono visori che ci permettono di vedere mondi virtuali o reali in 360 gradi o in 3D, come gli Hololens di Microsoft o gli Oculus Quest di Facebook.

Il primo è un visore di realtà aumentata che mappa il mondo circostante ed aggiunge elementi 3D inesistenti. Tramite questo dispositivo, un meccanico può lavorare ad un congegno posto dall’altro capo del mondo osservandone ogni dettaglio, muovendosi tranquillamente intorno ad esso ad esempio. Esistono, però, altre applicazioni interessanti, come quella di una casa automobilistica che in uno showroom mostrava tramite visore un ologramma a dimensione naturale dell’auto e delle sue sezioni .

Il secondo tipo di visore, come l’Oculus Quest, principalmente crea un mondo virtuale in cui siamo immersi totalmente e dove al nostro posto c’è un avatar tridimensionale. A seconda dei “gradi di libertà” del visore possiamo interagire in una maniera più immersiva nel mondo: alzare e abbassare la testa, girare intorno su noi stessi, avanzare e indietreggiare, e così via: quello che vedremo si adatterà alla nostra visione permettendoci di osservare un mondo completamente nuovo o una replica di quello reale e “sentirci” fisicamente lì.

In continuità con questo visore Facebook ha rilasciato anche una versione a tema del suo social network, Horizon, dove avere un avatar (al momento rappresentato solo dalla cintola in sù) con cui interagire in un mondo virtuale popolato dai nostri amici, con cui si può parlare, “toccare”, disegnare insieme, ecc..

Una delle prime applicazioni legate a questo tipo d’esperienza, invece, è stata quella delle montagne russe, in cui si era seduti in una carrozza e si viaggiava potendo osservare tutto ciò che c’era intorno. In questo caso, pur utilizzando ‘soltanto’ pochi gradi di libertà (anche perché si è seduti nella carrozza, come nella realtà), l’esperienza era incredibile. 

Oltre ai vantaggi, è giusto elencare anche una controindicazione legata a questa tecnologia: in special modo con le prime applicazioni e dispositivi, molti utenti hanno ammesso di soffrire di una sensazione di stordimento o nausea (“motion sickness”): sensazione simile a quella provata in contesti reali, e affine al mal d’auto o al mal di mare, dovuta alla dissonanza tra la percezione di movimento dei vari organi del corpo, impegnati a inviare segnali contrastanti al cervello, mandandolo in confusione.

In pratica se il sistema inganna gli occhi mostrando un’altra realtà, questo non avviene con l’udito e quindi il nostro cervello reagisce avvisandoci con un attacco di nausea, questo avviene in special modo per chi si approccia per la prima volta, infatti con l’utilizzo la sensazione si riduce o sparisce del tutto.

Per fortuna, i nuovi dispositivi (a sei gradi di libertà) e le nuove applicazioni di realtà virtuale hanno ridotto questi problemi, “ingannando” sempre più il nostro cervello: 

lato software riducendo i movimenti bruschi, i tragitti da percorrere, la durata della visione o limitando la visione periferica durante i movimenti, mentre dal lato hardware le società stanno studiando sempre più sistemi per ovviare a questo problema, come le cuffie Entrim 4D di Samsung che generano impulsi elettrici (che stimolano i nervi del padiglione auricolare responsabili dell’equilibrio)  in grado di far percepire al nostro corpo il senso di movimento .

Sia Microsoft, sia Facebook, ma anche altri player stanno lavorando a questi dispositivi per renderli più leggeri e meno invasivi possibili. Quello che inizialmente era un caschetto ora è un visore, in questi giorni sta diventando un occhiale, in futuro potrebbe divenire una lente a contatto.

Ma quale potrebbe essere uno scenario in cui tutti hanno delle lenti a contatto in grado di mostrare il mondo come uno di questi visori, in cui l’intelligenza artificiale può alterare le immagini e dove tutti siamo connessi l’un l’altro come in un social network?

È lecito immaginare un “Horizon” dove il mondo virtuale è il mondo reale, dove gli avatar saremo effettivamente noi, con la differenza che sarà possibile modificare il nostro aspetto come con la fotocamera del nostro cellulare. Potremo essere più “belli” o completamente diversi; potremo addirittura cambiare sesso, come abbiamo visto in precedenza. Inoltre il mondo reale, oltre ad essere aumentato da questi “effetti”, avrà anche ulteriori elementi non esistenti, come cascate, draghi, unicorni e così via.

Se tutti avessero queste lenti a contatto, tutti vedrebbero questo nuovo mondo. Se io decidessi di essere biondo con gli occhi azzurri, modificando il mio aspetto, tutti mi vedrebbero in questo modo. 

Immagino nuovi lavori, come il costruttore di immagini virtuali, al posto dei parrucchieri che oggi creano la nostra immagine come la desideriamo; o nuove aziende che, alla stregua di uffici anagrafici, mantengano un registro di queste “immagini” in modo da renderle uniche per tutti, in cui esistano delle regole per avere un’immagine unica ma personale e scelta volontariamente. Esisterà un unico software, dunque, che gestisca la logica di tutto il sistema, che alteri le immagini del mondo intorno a noi, anche quando ci vedremo in uno specchio o vedremo il nostro riflesso nell’acqua o in una vetrina. Dopo un pò, saremo l’immagine che abbiamo scelto, dimenticando addirittura quello che eravamo. La nostra giovinezza sarà prolungata, il nostro avatar non invecchierà, a meno che il sistema non decida di farlo, ma sarà più lento rispetto agli ordini naturali, in modo che il nostro aspetto venga conservato il più a lungo possibile.

Ci muoveremo sempre di meno, dato che avremo tutto a portata di “vista”.

Saremo in grado di lavorare con altre persone nella nostra stanza, seduti ad una scrivania virtuale, ad un computer virtuale ma perfettamente funzionante, digiteremo nell’aria muovendo le nostre dita e, ‘magicamente’, i tasti virtuali verranno pigiati. Riceveremo i nostri clienti che entreranno virtualmente da una porta per sedersi davanti a noi, parleremo e potremo interagire nei modi che il sistema consentirà. Impareremo questi nuovi gesti e non li vedremo più come dei limiti, ma faranno parte del nostro nuovo comportamento sociale. 

Nel mio immaginario quello che ho dipinto sarà ancora un mondo ibrido, dove l’olfatto e il gusto saranno i due sensi non aumentati, visto che l’udito, come la vista, invece potranno essere controllati dal “software unico”, tramite auricolari connessi al sistema. Il tatto potrà essere simulato tramite speciali guanti che potrebbero darci segnali e impedirci certi movimenti, addirittura ‘estesi’ indossando una tuta speciale.

Le voci che sentiremo saranno quelle che il sistema deciderà di farci sentire, dato che sarà in grado di modificare in tempo reale una voce o un rumore.

Inizialmente, ogni piccola cosa sarà un qualcosa che migliora l’esperienza reale. Ognuno avrà un televisore grande quanto la parete: si potrà vedere un film, o addirittura esserne parte, e sarà possibile viaggiare senza muoversi da casa, coinvolgendo i propri amici. Lentamente ci abitueremo a questa tecnologia, come ci siamo abituati ai telefoni cellulari, modificando i nostri comportamenti in maniera naturale.

Come abbiamo appreso gesti come lo swipe o il pinch ne ‘impareremo’ di nuovi, magari non solo per aumentare il nostro modo di interagire, ma anche per adattarci ai limiti della tecnologia. 

Ogni elemento nel mondo reale ha una posizione unica, tramite le sue coordinate: questo si rispecchierà anche nel nuovo mondo. Quindi se in uno stadio ci sarà un drago, ad esempio, tutti lo vedranno ed ognuno dal proprio punto di vista, rispetto al posto in cui è seduto. Un pò come è accaduto in Corea del Sud, il 23 marzo, dove un drago, virtuale, ha fatto la sua apparizione in occasione dell’apertura del campionato di baseball.

La stessa cosa accadrà se nel mio appartamento ci sarà un animale domestico virtuale che interagirà con me.

Questi animali ‘esisteranno’ nel nuovo mondo, perché sia noi che i nostri amici potremo vederli e interagire, e saranno dotati di “un’intelligenza artificiale” tale da renderli simili alle loro versioni in carne e ossa.

Sarà possibile avere un cane, un pony, ma anche un drago o un unicorno.
Inoltre, se oggi molti di noi hanno a casa un sistema come Alexa, in una cassa audio o un dispositivo fisico, in questo nuovo mondo avrà un aspetto reale e vivrà con noi in casa. Sarà una “persona reale” con un aspetto personalizzabile con cui parleremo, e che sarà a nostra disposizione per la gestione della casa.

Arriverà un punto in cui il nostro cervello non saprà più distinguere la realtà dal virtuale. Il continuo ingannare dei sensi porterà a percepire la realtà nel modo in cui il “software unico” l’ha progettata, secondo i nostri desideri. Una realtà che sarà facilmente manipolabile da chi ha il potere di gestire il “software unico”, che sia questi una persona, una lobby o addirittura l’algoritmo definitivo (un algoritmo in grado di apprendere da solo in modo da creare una nuova conoscenza a partire dai dati raccolti). 

Saremo sempre più vulnerabili e controllabili: seppur liberi di essere chi vogliamo, perderemo sempre più la nostra individualità.  

Il sistema conoscerà alla perfezione i nostri gusti, le nostre esigenze, i nostri desideri tanto che anticiperà le nostre richieste, fino ad arrivare al punto che ci faremo completamente guidare, affidandoci a lui. 

Il dubbio sorge spontaneo: diventeremo degli automi? Delle “macchine” vuote da riempire con “programmi” preimpostati? Ci trasformeremo nelle macchine che abbiamo creato, diventando noi l’intelligenza “artificiale” che abbiamo generato? Cosa ne sarà della nostra umanità? Del bagaglio di unicità che ciascuno porta con sé? Lo scenario che immagino non è poi terribile come si potrebbe essere portati a immaginare: vedo l’uomo come un sommo artista, divenire l’opera d’arte ch’egli stesso dipingerà.