Questo AIalimentato da generatore di testo è la cosa più spaventosa che io abbia mai visto — e si può provare itAI & Dintorni

OpenAI, organizzazione no-profit focalizzata sulla creazione umana a livello di intelligenza artificiale, ha appena rilasciato un aggiornamento per la sua GPT-2 generatore di testo. Non voglio essere iperbolico quando dico che, dopo averlo provato, sono legittimamente, terrorizzata per il futuro dell’umanità, se non siamo noi a non capire un modo per rilevare AI contenuti generati e presto.

GPT-2 non è un killer robot e le mie paure non sono che AI sta per salire contro di noi. Ho il terrore di GPT-2 perché rappresenta il tipo di tecnologia che male gli esseri umani stanno andando a utilizzare per manipolare la popolazione — e, a mio parere, che lo rende più pericoloso di qualsiasi pistola. Ecco come funziona: si dà un prompt e vicino istantaneamente e sputa fuori un mucchio di parole. Cosa c’è di spaventoso è che funziona. Funziona incredibilmente bene. Ecco un paio di esempi da Twitter:

E, perché pensi che io sto usando ciliegia raccolte esempi per illustrare un punto, ecco alcuni dal prompt ho inserito io (le parole in grassetto sono miei, il resto è tutto AI):

Alcuni di questi esempi sono il Test di Turing-pronto, e gli altri che si sentono di più circa un GPT 2 aggiornamento di distanza da essere indistinguibile da uomo-creato il contenuto. Ciò che è importante capire è che OpenAI non inventare una sorta di super computer, o reinventare IA come la conosciamo; semplicemente hanno fatto davvero un potente modello utilizzando state-of-the-art tecnologie di intelligenza artificiale. Io dico solo perché questo non è un one-off, cosa che sarà difficile per le organizzazioni che non solo l’inchiostro di un miliardo di dollari per affrontare con Microsoft per tirare fuori.

Qualcuno ha già preso la briga di mettere GPT-2, con il nuovo e migliorato 774M modello, online (AI ingegnere Adamo Re – @AdamKing su Twitter). Si può vedere di persona quanto sia facile per generare coesa di testo on-demand tramite AI.

Non fraintendetemi, la maggior parte del tempo si fa clic su “generate” sputa fuori un mucchio di spazzatura. Io non sto seduto qui con un scioccata sul mio viso, contemplando tutti i modi che questa tecnologia potrebbe essere usata contro di noi perché sto sopravvalutando la minaccia di un’interfaccia web per un AI che la linea di demarcazione prestidigitation. Io sono un cinico che sta cambiando il suo parere dopo aver visto legittima la prova che l’umano processo di scrittura può essere emulato da un’intelligenza artificiale con la pressione di un pulsante.

Continuare a fare clic su “generate”, sarete sorpresi di quanto pochi click necessario per raggiungere alcuni davvero convincente testo la maggior parte del tempo.

OpenAI ha seri problemi quando si tratta di rilasciare questi modelli di into the wild. Sei mesi fa ha suscitato un sacco di polemiche quando ha preso la decisione di lanciare GPT-2 con una messa in scena di rilascio. Un certo numero di ricercatori della IA comunità ha l’obiezione di OpenAI della ritenuta d’acconto – in sostanza, accusando l’organizzazione di contraddire la sua nascita come un non-profit che intende rilasciare il suo lavoro come open source.

L’inferno, ho scritto un intero articolo su di esso che deriso il fiato la copertura dei media OpenAI la decisione di non rilasciare l’intero modello con il titolo “Chi ha paura di OpenAI grande, cattivo generatore di testo?” Ma questa versione è diversa. Questo funziona quasi abbastanza buono da utilizzare come un generale di intelligenza artificiale per la generazione di testo, o quasi. E, le probabilità sono, la 774M modello non sarà l’ultima. Che cosa è questa cosa di andare a essere in grado di in doppio, o il triplo?

Metto questo qui, per il contesto (da OpenAI il post sul blog che annuncia l’uscita del nuovo e migliorato GPT-2 modello):

Il rilevamento non è semplice. In pratica, ci aspettiamo che i rilevatori per necessità di rilevare una significativa frazione di generazioni, con pochissimi falsi positivi. Dannoso attori possono utilizzare una varietà di tecniche di campionamento (tra cui il rifiuto di campionamento) o mettere a punto modelli per eludere i metodi di rilevamento. Un sistema distribuito probabile, deve essere molto accurata (il 99,9%-99.99%) su una varietà di generazioni. La nostra ricerca suggerisce che gli attuali ML-metodi basati solo ottenere un basso a metà degli anni ‘ 90 di precisione, e che affinare i modelli di linguaggio diminuisce l’accuratezza di più. Ci sono percorsi promettenti in avanti (vedere in particolare quelli proposti dagli sviluppatori di “GROVER”), ma è veramente difficile problema di ricerca. Noi crediamo che la statistica di rilevamento di testo deve essere integrato da un giudizio umano, e i metadati relativi al testo, al fine di combattere efficacemente l’abuso di modelli di linguaggio.

Non passerà molto tempo prima AI-generated media (che includono audio, video, testo, e le combinazioni di tutti e tre – sono del tutto indistinguibile da quella creata dall’uomo. Se non siamo in grado di trovare un modo per distinguere tra i due, strumenti come GPT-2 – in combinazione con il dolo di cattivi attori – semplicemente diventare armi di oppressione.

OpenAI era giusto per ritardare il rilascio di GPT-2 sei mesi fa, ed è giusto rilasciare il nuovo modello ora. Non saremo in grado di capire come rompere se non lasciare che l’IA comunità in senso ampio prendere una crepa in esso. Il mio cappello è tutto il modo di policy director Jack Clark e il resto della squadra a OpenAI. L’intera razza umana ha bisogno di procedere con cautela quando si tratta di ricerca AI andando avanti.

social experiment by Livio Acerbo #greengroundit #live https://thenextweb.com/artificial-intelligence/2019/08/21/this-ai-powered-text-generator-is-the-scariest-thing-ive-ever-seen-and-you-can-try-it/