Un IA conferenza, una volta conosciuta per blowout parti è finalmente in crescita fino AI & Dintorni

Solo due anni fa, mi sono detto, uno dei più caldi AI convegni di studio dell’anno è stato più gigante del partito di scambio accademico. In una lotta per i migliori talenti, aziende consegnato infinite swag libero e gettò massiccia fuga di eventi, di cui uno con Flo Rida, ospitato da Intel. I partecipanti (per lo più uomini nei loro primi anni ’20 e’ 30), a filo con stipendi enormi e la vertigine di essere altamente ambita, bevuto alcol libero e urtato la notte.

Non ho mai visto questa versione di NeurIPS, breve per il Neurali Sistemi di Elaborazione delle Informazioni conferenza. Sono venuto per la mia prima volta l’anno scorso, dopo l’eccesso di ha raggiunto il suo picco. Esternamente, la comunità è sempre più sotto controllo, come la sorpresa del 2016 le elezioni presidenziali americane ha spinto la gente a domanda l’influenza di algoritmi in società. Internamente, segnalazioni di molestie sessuali, l’Antisemitismo, il razzismo e la discriminazione nei confronti degli anziani sono anche guida frequentatori conferenza alla domanda se essi dovrebbero continuare a partecipare.

Così, quando sono arrivato nel 2018, diversità e inclusione comitato era stato nominato, e la lunga abbreviazione COLPI era stato aggiornato. Ancora, quest’anno, la procedura di sentirsi diverso dagli ultimi. Le parti sono più piccoli, i discorsi sono più socialmente mentalità, e le conversazioni che avvengono tra sembrano più consapevoli delle sfide etiche che il settore deve affrontare.

Come il ruolo di AI ha ampliato notevolmente, insieme al più inquietanti aspetti del suo impatto, la comunità, a quanto pare, ha finalmente iniziato a riflettere sul suo potere e le responsabilità che vengono con esso. Come un partecipante di mettere a me: “sembra Che questa comunità sta crescendo.”

Questo cambiamento si manifesta in modi concreti. Molte delle sessioni tecniche erano più concentrati su come affrontare il mondo reale, human-centric sfide, piuttosto che quelli teorici. Tutta poster brani sono stati centrati sui migliori metodi per proteggere la privacy dell’utente, per garantire equità, e riducendo la quantità di energia che si può prendere per correre e allenarsi state-of-the-art di modelli. Giornata di workshop, in programma per accadere oggi e di domani, hanno titoli come “la Lotta contro il Cambiamento Climatico con la Macchina di Apprendimento” e di “Equità di Apprendimento automatico per la Salute.”

Inoltre, molti dei relatori invitati direttamente rivolte sociali e sfide etiche di fronte al campo—argomenti una volta respinto in quanto non di base per la pratica di machine learning. I loro discorsi erano anche ben accolto dai partecipanti, la segnalazione di una nuova apertura per affrontare questi temi. All’evento di apertura, per esempio, psicologo cognitivo e #metoo polena Celeste Kidd ha dato un discorso di incitamento esortando il settore high-tech ad assumersi la responsabilità per come le sue tecnologie forma di credenze e di sfatare i miti di molestie sessuali. Ha ricevuto una standing ovation. In un discorso di apertura al Queer in AI simposio, ricercatore di Stanford Ria Kalluri messo in discussione anche gli altri a pensare di più su come il loro apprendimento automatico di modelli potrebbe spostare il potere nella società, da parte di coloro che hanno a coloro che non. Il suo discorso è stato ampiamente diffuso online.

Molto di tutto questo non è casuale. Attraverso il lavoro della diversità e l’inclusione, il comitato per la conferenza ha visto la più diversificata partecipazione alla sua storia. Quasi la metà main-stage altoparlanti erano donne e un numero simile minoranze; il 20% delle oltre 13.000 partecipanti vi erano anche donne, il 18% lo scorso anno. C’erano sette comunità-gruppi organizzati per sostenere la minoranza di ricercatori, che è un record. Questi Nero inclusi in AI, Queer in AI, e di Disabilità in AI, e hanno tenuto un procedimento parallelo nello stesso spazio come NeurIPS per facilitare la mescolanza di persone e di idee.

Quando riusciamo a coinvolgere più persone provenienti da diversi contesti in AI, Kidd mi ha detto, abbiamo, naturalmente, parlare di più su come AI è modellare la società, per il bene o per il male. “Vengono da meno di un luogo privilegiato e sono più consapevoli di cose come il bias e di ingiustizia e di come le tecnologie che sono state progettate per un certo demografica può effettivamente danneggiare le popolazioni svantaggiate”, ha detto. Kalluri eco il sentimento. Intenzionale che gli sforzi per diversificare la comunità, ha detto, stanno costringendo ad “affrontare i problemi di come funziona l’energia in questo campo”.

Nonostante i progressi, tuttavia, molti hanno sottolineato che il lavoro è appena iniziato. Avere il 20% delle donne è ancora spaventoso, e quest’anno, come negli anni passati, continua a essere Erculeo sfide nella protezione dei visti per i ricercatori internazionali, in particolare dall’Africa.

“Storicamente, questo campo è stato abbastanza ristretta in un particolare demografico della popolazione, e la ricerca che viene fuori riflette i valori di quelle persone,” dice Katherine Heller, un assistente professore presso la Duke University e co-presidente della diversità comitato. “Ciò che vogliamo, nel lungo periodo, è più inclusive posto per forma a quello che la futura direzione di AI è come. C’è ancora molto cammino da fare.”

Sì, c’è ancora una lunga strada da percorrere. Ma lunedì, come persone in fila per ringraziare Kidd per il suo parlare uno per uno, allora mi sento di speranza.

social experiment by Livio Acerbo #greengroundit #live https://www.technologyreview.com/s/614935/ai-conference-neurips-power-responsibility/