OpenAI rilascia uno strumento di Intelligenza Artificiale in grado di produrre un’immagine dal testo:

I ricercatori di OpenAI hanno creato un nuovo sistema in grado di produrre un’immagine completa, incluso un astronauta a cavallo, da una semplice frase in inglese.

Conosciuta come DALL · E 2, la seconda generazione dell’IA da testo a immagine è in grado di creare immagini e grafica realistiche a una risoluzione maggiore rispetto al suo predecessore.

Il gruppo di ricerca sull’intelligenza artificiale non rilascerà il sistema al pubblico.

La nuova versione è in grado di creare immagini da testo semplice, aggiungere oggetti in immagini esistenti o persino fornire diversi punti di vista su un’immagine esistente.

Gli sviluppatori hanno imposto restrizioni alla portata dell’IA per garantire che non potesse produrre immagini odiose, razziste o violente o essere utilizzata per diffondere disinformazione.

I ricercatori di OpenAI hanno creato un nuovo sistema in grado di produrre un’immagine completa, incluso un astronauta a cavallo, da una semplice frase in inglese. In questo caso astronauta a cavallo in stile fotorealistico:

Nota come DALL · E 2, la seconda generazione dell'IA da testo a immagine è in grado di creare immagini e grafica realistiche a una risoluzione maggiore rispetto al suo predecessore

Nota come DALL · E 2, la seconda generazione dell’IA da testo a immagine è in grado di creare immagini e grafica realistiche a una risoluzione maggiore rispetto al suo predecessore

La sua versione originale, che prende il nome dall’artista surrealista spagnolo Salvador Dali e dal robot Pixar WALL-E, è stata rilasciata nel gennaio 2021 come prova limitata dei modi in cui l’IA potrebbe essere utilizzata per rappresentare concetti, dalle descrizioni noiose ai voli di fantasia.

Alcune delle prime opere d’arte create dall’IA includevano un manichino con una camicia di flanella, un’illustrazione di un ravanello che porta a spasso un cane e un’emoji di un pinguino.

Esempi di frasi usate nella seconda versione – per produrre immagini realistiche – includono “un astronauta a cavallo in uno stile fotorealistico”.

Sul sito Web DALL-E 2, questo può essere personalizzato, per produrre immagini ‘al volo’, inclusa la sostituzione dell’astronauta con un orsacchiotto, il cavallo con il gioco del basket e mostrarlo come un disegno a matita o come una pop-art in stile Andy Warhol ‘pittura.

Il gruppo di ricerca sull'intelligenza artificiale non rilascerà il sistema al pubblico, ma spera di offrirlo come plug-in per le app di modifica delle immagini esistenti in futuro

Il gruppo di ricerca sull’intelligenza artificiale non rilascerà il sistema al pubblico, ma spera di offrirlo come plug-in per le app di modifica delle immagini esistenti in futuro

Può aggiungere o rimuovere oggetti da un'immagine, come il fenicottero a sinistra di questa immagine:
Può aggiungere o rimuovere oggetti da un'immagine, come il fenicottero che si trovava sulla sinistra:

Può aggiungere o rimuovere oggetti da un’immagine, come il fenicottero visto nella prima immagine e sparito nella seconda:

Soddisfacendo anche il cliente più difficile, con richieste di revisione senza fine, l’IA può pompare più versioni di ogni immagine da una singola frase.

Una delle caratteristiche specifiche di DALL-E 2 consente di “dipingere”, cioè dove può scattare una foto esistente e aggiungere altre funzionalità, come un fenicottero a una piscina.

È in grado di riempire automaticamente i dettagli, come le ombre, quando viene aggiunto un oggetto, o persino di modificare lo sfondo in modo che corrisponda, se un oggetto viene spostato o rimosso.

“DALL · E 2 ha appreso la relazione tra le immagini e il testo utilizzato per descriverle”, ha spiegato OpenAI.

“Utilizza un processo chiamato “diffusione”, che inizia con uno schema di punti casuali e modifica gradualmente quel modello verso un’immagine quando riconosce aspetti specifici di quell’immagine.’

La nuova versione è in grado di creare immagini da testo semplice, aggiungere oggetti in immagini esistenti o persino fornire diversi punti di vista su un'immagine esistente

La nuova versione è in grado di creare immagini da testo semplice, aggiungere oggetti in immagini esistenti o persino fornire diversi punti di vista su un’immagine esistente

La prima versione di DALL-E aveva una portata limitata:

La nuova versione è in grado di creare immagini più dettagliate:

La prima versione di DALL-E era limitata nel suo ambito (a sinistra), dove la nuova versione è in grado di creare immagini più dettagliate (a destra)

DALL-E 2 è costruito su un sistema di visione artificiale chiamato CLIP, sviluppato da OpenAI e annunciato lo scorso anno.

“DALL-E 1 ha appena preso il nostro approccio GPT-3 dal linguaggio e lo ha applicato per produrre un’immagine: abbiamo compresso le immagini in una serie di parole e abbiamo appena imparato a prevedere cosa verrà dopo “, ha detto a The Verge la ricercatrice OpenAI Prafulla Dhariwal.

Sfortunatamente questo processo ha limitato il realismo delle immagini, poiché non sempre ha catturato le qualità che gli esseri umani hanno ritenuto più necessarie.

CLIP guarda un’immagine e riassume i contenuti nello stesso modo in cui farebbe un essere umano, e l’hanno capovolta – unCLIP – per DALL-E 2.

Gli sviluppatori hanno imposto restrizioni all'ambito dell'IA per garantire che non potesse produrre immagini odiose, razziste o violente o essere utilizzata per diffondere disinformazione

Gli sviluppatori hanno imposto restrizioni all’ambito dell’IA per garantire che non potesse produrre immagini odiose, razziste o violente o essere utilizzata per diffondere disinformazione

La sua versione originale, che prende il nome dall'artista surrealista spagnolo Salvador Dali e dal robot Pixar WALL-E, è stata rilasciata nel gennaio 2021 come test limitato su come utilizzare l'IA per rappresentare concetti, dalle descrizioni noiose ai voli di fantasia

La sua versione originale, che prende il nome dall’artista surrealista spagnolo Salvador Dali e dal robot Pixar WALL-E, è stata rilasciata nel gennaio 2021 come test limitato su come utilizzare l’IA per rappresentare concetti, dalle descrizioni noiose ai voli di fantasia

OpenAI ha addestrato il modello utilizzando immagini e ha eliminato alcuni materiali obiettivi, limitando la sua capacità di produrre contenuti offensivi.

Ogni immagine include anche una filigrana, per mostrare chiaramente che è stata prodotta dall’intelligenza artificiale, piuttosto che da una persona, o che si tratta di una foto reale, riducendo il rischio di disinformazione.

Inoltre, non può generare volti riconoscibili in base a un nome, anche quelli riconoscibili solo da opere d’arte come la Gioconda, creando variazioni distintive.

“Abbiamo limitato la capacità di DALL · E 2 di generare immagini violente, di odio o per adulti”, secondo i ricercatori di OpenAI.

Rimuovendo il contenuto più esplicito dai dati di addestramento, abbiamo ridotto al minimo l’esposizione di DALL · E 2 a questi concetti.

Alcune delle prime opere d'arte create dall'IA includevano un manichino con una camicia di flanella, un'illustrazione di un ravanello che porta a spasso un cane e un'emoji di un pinguino o un astronauta sdraiato

Alcune delle prime opere d’arte create dall’IA includevano un manichino con una camicia di flanella, un’illustrazione di un ravanello che porta a spasso un cane e un’emoji di un pinguino o un astronauta sdraiato

La ragazza con l'orecchino di perla, conosciuta anche come Ragazza con il turbante dal pittore olandese dell'età dell'oro Johannes Vermeer.  Circa 1665:

L'IA è stata ristretta per evitare di copiare direttamente i volti, anche quelli nell'artwork:

L’IA è stata limitata per evitare di copiare direttamente i volti, anche quelli in opere d’arte come la Ragazza con l’orecchino di perla del pittore olandese dell’età dell’oro Johannes Vermeer. A destra si vede la versione AI dello stesso dipinto, modificata per non imitare direttamente il viso:

L'IA può creare opere d'arte fotorealistiche da una semplice descrizione, come 'foto di alta qualità di Times Square' (in basso) o foto di alta qualità di un cane che gioca in un campo verde vicino a un lago (in alto) con più versioni di ciascuno immagine prodotta

L’IA può creare opere d’arte fotorealistiche da una semplice descrizione, come ‘foto di alta qualità di Times Square’ (in basso) o foto di alta qualità di un cane che gioca in un campo verde vicino a un lago (in alto) con più versioni di ciascuno immagine prodotta

“Abbiamo anche utilizzato tecniche avanzate per prevenire generazioni fotorealistiche di volti di individui reali, compresi quelli di personaggi pubblici”.

Sebbene non sarà disponibile pubblicamente, ad alcuni ricercatori verrà concesso l’accesso e in futuro potrebbe essere incorporato in altre applicazioni, richiedendo rigide politiche sui contenuti.

Ciò non consente agli utenti di generare contenuti violenti, per adulti o politici, tra le altre categorie.

“Non genereremo immagini se i nostri filtri identificano messaggi di testo e caricamenti di immagini che potrebbero violare le nostre norme. Abbiamo anche sistemi di monitoraggio automatizzati e umani per proteggerci da usi impropri”, ha spiegato un portavoce.

‘Lavoriamo con esperti esterni e stiamo presentando in anteprima DALL · E 2 a un numero limitato di utenti fidati che ci aiuteranno a conoscere le capacità ei limiti della tecnologia.

“Abbiamo in programma di invitare più persone a visualizzare in anteprima questa ricerca nel tempo man mano che impariamo e miglioriamo in modo iterativo il nostro sistema di sicurezza”.

COME LE INTELLIGENZE ARTIFICIALI APPRENDONO USANDO LE RETI NEURALI:

I sistemi di intelligenza artificiale si basano su reti neurali artificiali (ANN), che cercano di simulare il modo in cui funziona il cervello per apprendere.

Le RNA possono essere addestrate a riconoscere i modelli nelle informazioni, inclusi voce, dati di testo o immagini visive, e sono la base per un gran numero di sviluppi dell’IA negli ultimi anni.

L’IA convenzionale utilizza l’input per “insegnare” un algoritmo su un particolare argomento fornendogli enormi quantità di informazioni.

I sistemi di intelligenza artificiale si basano su reti neurali artificiali (ANN), che cercano di simulare il modo in cui funziona il cervello per apprendere.  Le RNA possono essere addestrate a riconoscere i modelli nelle informazioni, inclusi voce, dati di testo o immagini visive:

I sistemi di intelligenza artificiale si basano su reti neurali artificiali (ANN), che cercano di simulare il modo in cui funziona il cervello per apprendere. Le RNA possono essere addestrate a riconoscere i modelli nelle informazioni, inclusi voce, dati di testo o immagini visive:

Le applicazioni pratiche includono i servizi di traduzione linguistica di Google, il software di riconoscimento facciale di Facebook e i filtri live che alterano le immagini di Snapchat.

Il processo di immissione di questi dati può richiedere molto tempo ed è limitato a un tipo di conoscenza.

Una nuova generazione di ANN chiamate Adversarial Neural Networks mette l’intelligenza di due robot di intelligenza artificiale l’uno contro l’altro, il che consente loro di imparare l’uno dall’altro.

Questo approccio è progettato per accelerare il processo di apprendimento, oltre a perfezionare l’output creato dai sistemi di intelligenza artificiale.

.

Leave a Comment