IA Ora, il rapporto annuale: smettere di fare “l’emozione di rilevamento”; stop “socialmente sensibili” riconoscimento facciale … IA & Dintorni


Ogni anno, Ora l’IA Istituto (in precedenza) pubblica un profondo, riflessivo, importante panoramica di cui AI ricerca e l’etica lacune dell’IA utilizzare e fa una lista di una dozzina di raccomandazioni urgenti per l’industria, la comunità di ricerca, e le autorità di regolamentazione e i governi.

Il rapporto di quest’anno è particolarmente importante, in quanto algoritmica, la discriminazione, la scienza-spazzatura, cattive pratiche di lavoro, e inappropriati distribuzioni hanno acquisito rilevanza e urgenza.

L’Istituto raccomandazioni principali sono:

* Interrompere la distribuzione di “emozione” rilevamento sistemi (“i governi dovrebbero in particolare vietare l’uso di influenzare il riconoscimento in high-stakes di processi decisionali”). Questi sono scienza-spazzatura (“costruito su marcatamente instabile fondazioni”), ma sono utilizzati per tutto, dalla cura medica per l’assicurazione degli studenti la valutazione delle prestazioni.

* Smettere di usare il riconoscimento facciale in “sensibili contesti sociali e politici” (“tra cui la sorveglianza, polizia, istruzione e lavoro — in cui il riconoscimento facciale comporta dei rischi e conseguenze che non possono essere risolti con effetto retroattivo”).

* Fissare l’industria della diversità problema “ad indirizzo sistemico il razzismo, la misoginia, e la mancanza di diversità.”

* Espandere il bias di ricerca al di là di tecniche correzioni: “center ‘non tecnici’ discipline, il cui lavoro tradizionalmente esamina tali questioni, tra cui la scienza e la tecnologia di studi, critica gara di studi, disability studies,e altre discipline profondamente in sintonia con il contesto sociale” (vedi: “seconda ondata algoritmico accountability”)

* L’obbligo di rivelare AI settore impatto sul clima: “la Divulgazione dovrebbe includere le notifiche che permette agli sviluppatori e ricercatori di comprendere le specifiche clima costo del loro utilizzo AI infrastruttura.”

* Dare ai lavoratori il diritto di “concorso di sfruttamento e invasiva AI” con l’aiuto dei sindacati: “i Lavoratori meritano il diritto di contestare le determinazioni [da “AI abilitati di lavoro-sistemi di gestione”], e collettivamente d’accordo su norme di lavoro che sono sicuro, leale e prevedibile”.

* Dare tech lavoratori il diritto di sapere a cosa stanno lavorando e per “concorso immorale, o l’uso nocivo del loro lavoro”: “le Aziende devono garantire che i lavoratori siano in grado di tenere traccia di dove il loro lavoro è stato applicato, da chi e per quale fine.”

* Espandere biometrici norme in materia di privacy per i governi e gli attori privati: Una chiamata di universalizzare Illinois mondo battendo Informazioni Biometriche Legge sulla Privacy (BIPA).

* Regolare “l’integrazione di pubblico e privato di sorveglianza di infrastrutture” Da smart cities a quartiere di sorveglianza (Guardando a voi, Anello) per militari e di sorveglianza del governo di contratti per Big Tech, per Cintura-e-Stradali e altre digitali imperialismo progetti per la realizzazione e controllati in remoto di sorveglianza tech nel client membri di governo. “Abbiamo bisogno di una forte trasparenza, la responsabilità e la vigilanza in queste aree, come i recenti sforzi per mandato pubblico di divulgazione e di dibattito pubblico-privato tech partnership, contratti e acquisizioni”.

* Utilizzare Algoritmico Valutazioni di Impatto per “impatto sul clima, per la salute e geografica di spostamento.”

* I ricercatori di “documentare meglio le origini dei loro modelli e dati” per conto “per i potenziali rischi e dei danni”: “Progressi nella comprensione di bias, l’equità e la giustizia di apprendimento automatico di ricerca, è chiaro che le valutazioni dei rischi e dei danni sono di importanza fondamentale.”

* No di salute-relative AI ricerca senza il consenso informato: “AI sistemi sanitari devono essere meglio informato consenso di approcci e di ulteriori ricerche per capire le loro implicazioni in luce di salute sistematica le ingiustizie.”

2019 Rapporto [IA Ora Institute]

(Immagine: Cryteria, CC, modificato)

social experiment by Livio Acerbo #greengroundit #live https://boingboing.net/2019/12/14/oppenheimers-r-us.html