Viaggio verso il metaverso





La necessità di osservare la realtà circostante è nata con l’uomo. Sebbene da allora si siano fatti innumerevoli passi in avanti, quello di guardare il mondo resta un bisogno vivo, alla base del nostro quotidiano. Il modo più diffuso di farlo, oggi, è attraverso immagini statiche o dinamiche. Film, documentari o fotografie ci permettono di conoscere il mondo attraverso il punto di vista del regista o del fotografo: luoghi non conosciuti o molto distanti improvvisamente diventano tanto vicini da poter essere quasi toccati, ampliando così anche la conoscenza di ciò che ci circonda. 

Non sempre, però, quello che guardiamo è reale: la sapiente inquadratura di un soggetto o di una scena, ritratti in un modo particolare, possono dare vita a un’immagine in grado addirittura di cambiarne il contesto.

Fino a qualche anno fa la produzione di queste immagini era possibile solo tramite televisione o fotografia; oggi, invece, una buona parte viene effettuata tramite smartphone dotati di una potenza di calcolo estrema e software molto avanzati. 

Questi stessi dispositivi, oltre a riprodurre immagini o video, permettono di guardare in tempo reale, sullo schermo, elementi non esistenti che reagiscono col mondo circostante tramite una tecnologia chiamata realtà aumentata. 

I nuovi smartphone hanno svariate applicazioni che permettono di modificare le immagini in maniera mai immaginata in passato. 

Partendo dalla classica modifica di immagini con software di editing fotografico come photoshop, con cui è possibile correggere un’immagine eliminando sfondi, aggiungendo elementi, migliorando il corpo umano e così via, si giunge a tool più sofisticati, che effettuano alterazioni utilizzando modelli matematici, grazie all’intelligenza artificiale. 

Tra questi annoveriamo applicazioni come ModiFace, che permettono a una donna di vedere il proprio volto truccato in tempo reale tramite fotocamera, utilizzando addirittura prodotti reali che poi potrà acquistare; o come Face app, diventata virale non solo perché in grado di invecchiare il volto, ma anche per la capacità di migliorarlo, o trasformarlo aggiungendo elementi come barba, occhiali, taglio di capelli o addirittura di stravolgerlo, mutandolo in quello di una persona di sesso opposto.  

Quest’ultimo ‘effetto’ è uno dei punti di forza di Snapchat che, in tempo reale, grazie alla fotocamera, permette lo switch di sesso con una qualità davvero impressionante.

Questi ultimi effetti sono possibili grazie a modelli matematici generati da algoritmi di intelligenza artificiale che, analizzando numerose immagini della stessa tipologia, hanno individuato pattern comuni, replicati poi mediante modifiche su immagini dove non erano presenti. 

Una delle applicazioni di questa tecnologia è su una tecnica chiamata ‘deep fake’ , ovvero la possibilità di sostituire completamente un volto con un altro, sia in immagini che in video. Tale tecnica è diventata famosa nel momento in cui è stata applicata alla pornografia. Sono diventati virali, ad esempio, spezzoni di video porno in cui i reali attori sono stati ‘sostituiti’ da attrici di Hollywood o personalità famose come cantanti o politici. 

La cosa straordinaria di questa tecnica è la semplicità con cui chiunque può applicarla, semplicemente utilizzando il software e procurandosi una serie di immagini dove è presente il volto della ‘vittima’. Non è un caso, infatti, se si utilizza questo termine: un utilizzo massiccio di deep fake si è registrato tra i più giovani che, impiegando la tecnologia con un fine sbagliato, hanno diffuso in rete, per vendetta, video della ex per screditarla

Ovviamente questa tecnica può essere molto utile in campo cinematografico. Basti pensare alla possibilità di ingaggiare delle comparse per girare un film e poi sostituirne il volto con quello di un altro attore, più famoso; o addirittura immaginare la facoltà di realizzare un volto realistico, a una definizione altissima, senza che questo esista veramente. E perché non un intero corpo?! Esistono già delle tecniche operanti in tal senso, anche se al momento si trovano ad uno stato iniziale. Oggi è possibile, per esempio, creare un filmato di una persona che balla solo partendo da una foto in cui il soggetto è fermo

L’intelligenza artificiale può essere applicata anche all’audio oltre che alle immagini. È possibile, infatti, sostituire la voce di una persona con un’ altra, ovvero parlare con la propria voce ma riprodurre quella di un altro individuo come un attore o un politico; è inoltre possibile, addirittura, far leggere un testo da una voce appartenente ad una persona senza che quest’ultima ne abbia mai pronunciata una singola frase

La generazione di testi è un altro campo importante dell’IA: oggi esistono algoritmi, come per esempio il GPT-2 di OpenAI in grado di creare un testo, non esistente e dotato di senso compiuto, partendo da una qualunque frase. 

Nel testo successivo è dimostrata l’applicazione dell’algoritmo GPT2 partendo da una prima riga contenente il testo “Can a computer write a story?”. Il risultato, riportato fedelmente, non contiene modifiche per evitare che la traduzione in italiano potesse incidere sul senso originario. 

Can a computer write a story?

If you can write your story in such a way that I can learn the structure, then yes. You will be rewarded by being included, and, perhaps, even rewarded by being read. There will be a story, and hopefully for me there will be a reader’s story. I hope to be able to write about this subject, and perhaps become an “expert”, for a short while. (For those interested, I have a blog called “The Best of Hacks” where I share the “best of” and “worst of” my writing. This was created not so much for the purpose of “self-promotion” as to see what others are up to when they get a story of theirs published.)
So, if I’m to write a story that’s good enough to be called “the best in the world” then, yes, I think it’s possible. Can it be done? I don’t know.
In the meantime, I think that writing an article is a pretty good way to learn to write a story.

L’intelligenza artificiale gioca un ruolo fondamentale come tecnologia in grado di cambiare e aumentare la realtà, ma gli algoritmi, per quanto evoluti, sarebbero inutili senza avere una grande mole di dati (come, per esempio, le migliaia di immagini o milioni di volti indispensabili per poter imparare a generarne uno autonomamente). 

Questi dati, oggi, si trovano ovunque, ma in special modo nei social network e in internet in generale. 

Da anni siamo tutti connessi l’uno con l’altro e con i dispositivi che ci circondano. 

A partire da social come Facebook, dove interagiamo con i nostri conoscenti condividendo contenuti ed informazioni personali, o Instagram, dove mostriamo foto dei temi che abbiamo più a cuore, o addirittura documentiamo la nostra vita tramite stories; pensiamo ancora a Twitter, dove in tempo reale commentiamo uno show televisivo, una conferenza o seguiamo account i cui argomenti ci coinvolgono, o a Linkedin, dove condividiamo con il mondo il nostro percorso di studi, quello lavorativo e così via.

Se da un lato i social network ci connettono e ci permettono di sentirci più vicini, o di essere aggiornati in tempo reale su svariati argomenti, dall’altro lato costituiscono un pericolo da non sottovalutare. 

Un esempio importante è stato il caso Cambridge Analytica, riguardante Facebook, che è stato un vero e proprio scandalo. Una società, approfittando della leggerezza sulla privacy del social, ha raccolto milioni di dati personali di utenti ignari, ne ha tracciato un profilo comportamentale estremamente dettagliato ed ha venduto queste informazioni a terze parti. 

Quelle stesse informazioni hanno permesso di veicolare messaggi ‘promozionali’  su tantissimi utenti, cambiando addirittura la percezione della realtà e portando cambiamenti storici rilevanti come la Brexit o l’elezione di Trump negli Stati Uniti, come ha rilevato Carole Cadwalladr, cronista dell’Observer al TED di Vancouver (e che è stata bannata a vita da Facebook per questo). 

Ciò perché, tramite Facebook, chiunque ha accesso ad uno stream di informazioni che è una miscela di contenuti di persone seguite o sponsorizzati. 

Se si ha la capacità di dirigere o controllare questo flusso, si ha la possibilità di modificare la percezione dell’utente. 

A questi dati personali si aggiungono i dati di tracciamento che vengono creati in maniera automatica, e spesso poco trasparente, da parte dei sistemi informatici. 

Cosa vediamo su Netflix, cosa ascoltiamo su Spotify, ciò che leggiamo su Kindle, quello che acquistiamo su Amazon, ciò che prenotiamo su Booking fa parte di una rete di informazioni atte a profilare l’utente. Fa riflettere ancor più considerare che queste informazioni, poi, possono essere messe in relazione con i contenuti delle email o delle chat personali (whatsapp o messenger).

Non finisce qui. La raccolta di dati e profilazione dell’utente risulta essere ancora più invadente se si pensa ai sistemi vocali come Siri, Alexa, Google che, se da un lato ci forniscono un servizio interessante come quello di avere contenuti multimediali tramite l’utilizzo della voce, sono, per l’appunto, sempre in ascolto per poterlo fare

Si tratta di sistemi in grado, quindi, di ascoltare e decodificare dalla nostra voce informazioni personali come gli stati d’animo, o semplicemente parole chiave dalle nostre conversazioni. 

Ovviamente queste informazioni non sono limitate a una ricerca effettuata da uno smartphone o da un computer di casa, ma riguardano i tanti dispositivi intelligenti di cui non possiamo più fare a meno o che vanno affermandosi, quali i navigatori per la selezione di un tracciato, le auto “intelligenti” come la Tesla, che ottimizzano il percorso per risparmiare il tempo di attesa per la ricarica elettrica, o le telecamere di sorveglianza poste ormai ovunque.

Tutte queste agevolazioni che la tecnologia offre, vengono ‘pagate’ anche con il rilascio di dati personali, e spesso queste informazioni non sono utilizzate in maniera trasparente. Ci si ritrova, così, a essere obiettivo di una campagna di retargeting: inseguiti dalla pubblicità di un viaggio subito dopo aver parlato con il partner del desiderio di fare una vacanza, bombardati dal suggerimento di un film da vedere perché ne sia agevolata la distribuzione, o tampinati sul feed social dalla recensione di un prodotto sul cui acquisto eravamo indecisi, e così via. Tutte informazioni utili e mirate, ma che rendono l’utente sempre più controllato.

Dove arriveremo nei prossimi anni? Oggi viviamo già il futuro lontanamente immaginato nemmeno una ventina di anni fa. Ogni anno c’è un miglioramento della tecnologia che diventa più rapida e potente, e in grado di miniaturizzare i dispositivi che la utilizzano.

Dato che osserviamo il mondo principalmente con i nostri occhi, immagino che il futuro possa portare dei cambiamenti proprio in questo settore.

Oggi esistono visori che ci permettono di vedere mondi virtuali o reali in 360 gradi o in 3D, come gli Hololens di Microsoft o gli Oculus Quest di Facebook.

Il primo è un visore di realtà aumentata che mappa il mondo circostante ed aggiunge elementi 3D inesistenti. Tramite questo dispositivo, un meccanico può lavorare ad un congegno posto dall’altro capo del mondo osservandone ogni dettaglio, muovendosi tranquillamente intorno ad esso ad esempio. Esistono, però, altre applicazioni interessanti, come quella di una casa automobilistica che in uno showroom mostrava tramite visore un ologramma a dimensione naturale dell’auto e delle sue sezioni .

Il secondo tipo di visore, come l’Oculus Quest, principalmente crea un mondo virtuale in cui siamo immersi totalmente e dove al nostro posto c’è un avatar tridimensionale. A seconda dei “gradi di libertà” del visore possiamo interagire in una maniera più immersiva nel mondo: alzare e abbassare la testa, girare intorno su noi stessi, avanzare e indietreggiare, e così via: quello che vedremo si adatterà alla nostra visione permettendoci di osservare un mondo completamente nuovo o una replica di quello reale e “sentirci” fisicamente lì.

In continuità con questo visore Facebook ha rilasciato anche una versione a tema del suo social network, Horizon, dove avere un avatar (al momento rappresentato solo dalla cintola in sù) con cui interagire in un mondo virtuale popolato dai nostri amici, con cui si può parlare, “toccare”, disegnare insieme, ecc..

Una delle prime applicazioni legate a questo tipo d’esperienza, invece, è stata quella delle montagne russe, in cui si era seduti in una carrozza e si viaggiava potendo osservare tutto ciò che c’era intorno. In questo caso, pur utilizzando ‘soltanto’ pochi gradi di libertà (anche perché si è seduti nella carrozza, come nella realtà), l’esperienza era incredibile. 

Oltre ai vantaggi, è giusto elencare anche una controindicazione legata a questa tecnologia: in special modo con le prime applicazioni e dispositivi, molti utenti hanno ammesso di soffrire di una sensazione di stordimento o nausea (“motion sickness”): sensazione simile a quella provata in contesti reali, e affine al mal d’auto o al mal di mare, dovuta alla dissonanza tra la percezione di movimento dei vari organi del corpo, impegnati a inviare segnali contrastanti al cervello, mandandolo in confusione.

In pratica se il sistema inganna gli occhi mostrando un’altra realtà, questo non avviene con l’udito e quindi il nostro cervello reagisce avvisandoci con un attacco di nausea, questo avviene in special modo per chi si approccia per la prima volta, infatti con l’utilizzo la sensazione si riduce o sparisce del tutto.

Per fortuna, i nuovi dispositivi (a sei gradi di libertà) e le nuove applicazioni di realtà virtuale hanno ridotto questi problemi, “ingannando” sempre più il nostro cervello: 

lato software riducendo i movimenti bruschi, i tragitti da percorrere, la durata della visione o limitando la visione periferica durante i movimenti, mentre dal lato hardware le società stanno studiando sempre più sistemi per ovviare a questo problema, come le cuffie Entrim 4D di Samsung che generano impulsi elettrici (che stimolano i nervi del padiglione auricolare responsabili dell’equilibrio)  in grado di far percepire al nostro corpo il senso di movimento .

Sia Microsoft, sia Facebook, ma anche altri player stanno lavorando a questi dispositivi per renderli più leggeri e meno invasivi possibili. Quello che inizialmente era un caschetto ora è un visore, in questi giorni sta diventando un occhiale, in futuro potrebbe divenire una lente a contatto.

Ma quale potrebbe essere uno scenario in cui tutti hanno delle lenti a contatto in grado di mostrare il mondo come uno di questi visori, in cui l’intelligenza artificiale può alterare le immagini e dove tutti siamo connessi l’un l’altro come in un social network?

È lecito immaginare un “Horizon” dove il mondo virtuale è il mondo reale, dove gli avatar saremo effettivamente noi, con la differenza che sarà possibile modificare il nostro aspetto come con la fotocamera del nostro cellulare. Potremo essere più “belli” o completamente diversi; potremo addirittura cambiare sesso, come abbiamo visto in precedenza. Inoltre il mondo reale, oltre ad essere aumentato da questi “effetti”, avrà anche ulteriori elementi non esistenti, come cascate, draghi, unicorni e così via.

Se tutti avessero queste lenti a contatto, tutti vedrebbero questo nuovo mondo. Se io decidessi di essere biondo con gli occhi azzurri, modificando il mio aspetto, tutti mi vedrebbero in questo modo. 

Immagino nuovi lavori, come il costruttore di immagini virtuali, al posto dei parrucchieri che oggi creano la nostra immagine come la desideriamo; o nuove aziende che, alla stregua di uffici anagrafici, mantengano un registro di queste “immagini” in modo da renderle uniche per tutti, in cui esistano delle regole per avere un’immagine unica ma personale e scelta volontariamente. Esisterà un unico software, dunque, che gestisca la logica di tutto il sistema, che alteri le immagini del mondo intorno a noi, anche quando ci vedremo in uno specchio o vedremo il nostro riflesso nell’acqua o in una vetrina. Dopo un pò, saremo l’immagine che abbiamo scelto, dimenticando addirittura quello che eravamo. La nostra giovinezza sarà prolungata, il nostro avatar non invecchierà, a meno che il sistema non decida di farlo, ma sarà più lento rispetto agli ordini naturali, in modo che il nostro aspetto venga conservato il più a lungo possibile.

Ci muoveremo sempre di meno, dato che avremo tutto a portata di “vista”.

Saremo in grado di lavorare con altre persone nella nostra stanza, seduti ad una scrivania virtuale, ad un computer virtuale ma perfettamente funzionante, digiteremo nell’aria muovendo le nostre dita e, ‘magicamente’, i tasti virtuali verranno pigiati. Riceveremo i nostri clienti che entreranno virtualmente da una porta per sedersi davanti a noi, parleremo e potremo interagire nei modi che il sistema consentirà. Impareremo questi nuovi gesti e non li vedremo più come dei limiti, ma faranno parte del nostro nuovo comportamento sociale. 

Nel mio immaginario quello che ho dipinto sarà ancora un mondo ibrido, dove l’olfatto e il gusto saranno i due sensi non aumentati, visto che l’udito, come la vista, invece potranno essere controllati dal “software unico”, tramite auricolari connessi al sistema. Il tatto potrà essere simulato tramite speciali guanti che potrebbero darci segnali e impedirci certi movimenti, addirittura ‘estesi’ indossando una tuta speciale.

Le voci che sentiremo saranno quelle che il sistema deciderà di farci sentire, dato che sarà in grado di modificare in tempo reale una voce o un rumore.

Inizialmente, ogni piccola cosa sarà un qualcosa che migliora l’esperienza reale. Ognuno avrà un televisore grande quanto la parete: si potrà vedere un film, o addirittura esserne parte, e sarà possibile viaggiare senza muoversi da casa, coinvolgendo i propri amici. Lentamente ci abitueremo a questa tecnologia, come ci siamo abituati ai telefoni cellulari, modificando i nostri comportamenti in maniera naturale.

Come abbiamo appreso gesti come lo swipe o il pinch ne ‘impareremo’ di nuovi, magari non solo per aumentare il nostro modo di interagire, ma anche per adattarci ai limiti della tecnologia. 

Ogni elemento nel mondo reale ha una posizione unica, tramite le sue coordinate: questo si rispecchierà anche nel nuovo mondo. Quindi se in uno stadio ci sarà un drago, ad esempio, tutti lo vedranno ed ognuno dal proprio punto di vista, rispetto al posto in cui è seduto. Un pò come è accaduto in Corea del Sud, il 23 marzo, dove un drago, virtuale, ha fatto la sua apparizione in occasione dell’apertura del campionato di baseball.

La stessa cosa accadrà se nel mio appartamento ci sarà un animale domestico virtuale che interagirà con me.

Questi animali ‘esisteranno’ nel nuovo mondo, perché sia noi che i nostri amici potremo vederli e interagire, e saranno dotati di “un’intelligenza artificiale” tale da renderli simili alle loro versioni in carne e ossa.

Sarà possibile avere un cane, un pony, ma anche un drago o un unicorno.
Inoltre, se oggi molti di noi hanno a casa un sistema come Alexa, in una cassa audio o un dispositivo fisico, in questo nuovo mondo avrà un aspetto reale e vivrà con noi in casa. Sarà una “persona reale” con un aspetto personalizzabile con cui parleremo, e che sarà a nostra disposizione per la gestione della casa.

Arriverà un punto in cui il nostro cervello non saprà più distinguere la realtà dal virtuale. Il continuo ingannare dei sensi porterà a percepire la realtà nel modo in cui il “software unico” l’ha progettata, secondo i nostri desideri. Una realtà che sarà facilmente manipolabile da chi ha il potere di gestire il “software unico”, che sia questi una persona, una lobby o addirittura l’algoritmo definitivo (un algoritmo in grado di apprendere da solo in modo da creare una nuova conoscenza a partire dai dati raccolti). 

Saremo sempre più vulnerabili e controllabili: seppur liberi di essere chi vogliamo, perderemo sempre più la nostra individualità.  

Il sistema conoscerà alla perfezione i nostri gusti, le nostre esigenze, i nostri desideri tanto che anticiperà le nostre richieste, fino ad arrivare al punto che ci faremo completamente guidare, affidandoci a lui. 

Il dubbio sorge spontaneo: diventeremo degli automi? Delle “macchine” vuote da riempire con “programmi” preimpostati? Ci trasformeremo nelle macchine che abbiamo creato, diventando noi l’intelligenza “artificiale” che abbiamo generato? Cosa ne sarà della nostra umanità? Del bagaglio di unicità che ciascuno porta con sé? Lo scenario che immagino non è poi terribile come si potrebbe essere portati a immaginare: vedo l’uomo come un sommo artista, divenire l’opera d’arte ch’egli stesso dipingerà.

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *