Il Pericolo di Valutazione di Apprendimento della MacchinaAI & Dintorni

Fennec fox

Macchina di apprendimento è un potente strumento per l’IA degli strumenti, ma i suoi limiti deve essere intesa a utilizzare in modo efficace.

Getty

Macchina di apprendimento è diventata la beniamina di marketing di spazio, una salsa segreta che dovrebbe mettere il turbo computer e di avvicinarci al nirvana di intelligenza artificiale dominanza … o qualcosa di simile. Come gran parte di ciò che viene fuori di marketing, la maggior parte di esso è hype, e ingannevole hype che. Mentre c’è un sacco di potenza in cosa machine learning può fare, attraverso l’attribuzione di capacità magiche il mavens di marketing può effettivamente essere l’impostazione di tutto il campo per ancora un’altra intelligenza artificiale inverno, come le aspettative continuano a cadere a corto di realtà.

Vale la pena di capire cosa Machine Learning è, e non è. Al suo interno, il termine macchina di apprendimento si riferisce ad un insieme di elaborazione matematica, o algoritmi, in cui un set di record di dati con diversi attributi sono normalizzati (ogni attributo convertito in un valore compreso tra zero e uno) e quindi eseguire attraverso un processo statistico per determinare quando alcuni cluster di attributi si verificano insieme. Questo processo di clustering di solito i segnali che il record rientra in una determinata categoria.

Lo statistico può allenare gli algoritmi per identificare che quando alcuni cluster accadere questo di solito indica che qualcosa è di un certo tipo. Per esempio, forme regolari sono quasi sempre artificiale (letteralmente “fatto come arte”), forme irregolari che seguono schemi frattali sono di solito piante, di forme irregolari, capace di movimenti imprevisti sono di solito animali e così via. È l’insieme di attributi, piuttosto che uno solo, che diventa responsabile per la categorizzazione.

Artificial intelligence and trigonometry lesson in college. Robot teacher explains theory inverse trigonometric functions. Classroom interior with handwritten formula black chalkboard.

Macchina di apprendimento è solo buono come i dati che la allena.

Getty
Ci sono quattro problemi di base di apprendimento automatico. La prima è che avete bisogno di passare attraverso il processo iniziale di formazione algoritmi per identificare abbastanza grande (e abbastanza rappresentativa del campione) per aiutare il sistema a determinare la forma di busta che identifica un determinato cluster. Questo più elementi che sono identificati, migliore è la mappatura, ma con una abbastanza grande insieme di cluster, il minimo utile la dimensione del campione può crescere geometricamente, in modo che potrebbe essere necessario potenzialmente migliaia di campioni di formare adeguatamente un set.

Il secondo problema ha a che fare con la categorica bias, sia accidentale o intenzionale. Se una macchina di apprendimento guardò il rating di credito e fattori simili per i due quartieri, il campione può sovrappeso l’importanza di un fattore (come la corsa) a causa del modo in cui il campione è stato raccolto. La costruzione di un modello di clustering che può superare il pregiudizio è spesso difficile, perché il modeler è in balia dei dati a loro disposizione.

Un altro problema è che questo tipo di clustering in genere non in grado di gestire i casi limite in bene. A causa del rapporto tra il numero di cluster e la dimensione del campione necessaria, se le variabili non vengono catturati nel modello poi due cose che possono sembrare in apparenza simile quando guardato attraverso la lente di quelle variabili può sembrare molto diverso quando tali variabili sono a posto.

Watchful cute home pet puppy fox stared scared standing on wooden floor in rustic cabin with copy space

Cane o gatto? In realtà è un fennec, un tipo di fox. Tali casi limite, può essere difficile per il clustering basato sistemi di discernere.

Getty
Per esempio, se si dispone di una routine che riconosce i diversi cani e gatti, la foto di una volpe è quasi sempre andando essere travisato. Non essere respinto perché le volpi hanno la maggior parte delle stesse caratteristiche che cani e gatti hanno in comune, ma sarà erroneamente classificato poiché le diverse caratteristiche di volpi tendono ad adattarsi in il cane o il gatto di categoria.

Questo particolare problema è particolarmente importante in settori come determinare se un politico post su un social network è “false notizie”. Ci sono statistiche dice che possono indicare se un determinato post è stato uomo vs macchina generato, anche se questi sono di tipo probabilistico determinazioni.

Tuttavia, anche nel primo caso, in cui il contenuto è stato umanamente prodotto, l’unico modo che si può veramente rendere tale determinazione è di non avere abbastanza informazioni contestuali (cioè, news) con solida autenticazione sentiero per determinare se o non i fatti sono coerenti. Questo è straordinariamente complesso problema anche per gli esseri umani, soprattutto in considerazione che hanno i loro pregiudizi sui problemi specifici che tendono a lasciare che un tipo di notizie diapositiva, mentre un altro viene in su per l’esame.

Il finale in questione è demandata all’evoluzione degli interessi nel corso del tempo. Diciamo che si sono un intrattenimento in streaming società che utilizza una macchina di apprendimento per determinare ciò che un particolare persona che ama. Il processo di formazione ridurrà il potenziale insieme di candidati media che il cliente vuole vedere in base a quello che ho già guardato, ma un problema che si verifica è che con questo si verrà eseguito alla fine del supporto che il cliente non abbia già visto.

In genere la formazione viene fatta in un abbastanza ampio e di livello (in altre parole, il cliente è trattato come appartenente a una certa serie di categorie), perché la formazione è costoso. Qualsiasi record di dati in genere ha solo un piccolo impatto sulla complessiva di categorizzazione — il suo solo quando si arriva a centinaia o addirittura migliaia di record segnali d’un simile cambiamento che la maggior parte di macchina, sistemi di apprendimento possono cambiare i loro criteri di classificazione.

Bright tech background with blocks - abstract digitally generated image

La ricorsione, che sottende la più profonda dei sistemi di apprendimento, utilizza uscita da un passo per generare l’input del successivo. Quasi tutti i sistemi di apprendimento sono ricorsive in una certa misura, ma il più ricorsione gioca una parte, è difficile da discernere

Getty
Ora, ci sono approcci alternativi. Uno di loro, il rafforzamento dell’apprendimento, considera ogni risorsa autonoma agente in grado di mantenere il proprio stato di informazioni e l’esecuzione di alcuni di questi processi di riclassificazione “al volo”, per così dire. Questo a costo di un aumento di memoria e di calcolo di cicli, tuttavia, a volte molto di più. Molti di questi agenti imparare monitorando il loro stato di filtro e la loro uscita in base a tale stato di utilizzare come input per la successiva iterazione. In effetti il ciclo di feedback (che ora non lineare, o frattale) significa che i segnali che rafforzano un nuovo stato ha più forza di quelli che sono più anziani.

Il vantaggio di questo è che tale agente comportamento può cambiare in risposta a stimoli esterni. Il rovescio della medaglia è che (come per la maggior parte non lineare di operazioni) causalità diventa più difficile e più difficile da accertare. È stato il comportamento è causato a causa di una certa configurazione di stati, o emergenti, provenienti da passaggio a un livello superiore di astrazione? Mettere un altro modo, più passaggi si genera in un processo ricorsivo, è difficile da determinare perché il comportamento cambia, e come uno degli obiettivi di apprendimento automatico è quello di classificare, questa incapacità di determinare la causalità limita la sua utilità per la classificazione.

Questo explainability requisito è oggi una delle grandi aree di machine learning theory – si può costruire un ricorsiva processore che comunque può essere utilizzato per determinare la causalità? Questo compito è reso più difficile, perché anche la ricorsione è una tendenza a lasciare molto minore condizione iniziale differenze palloncino drasticamente il fenomeno più noto come “effetto farfalla”. In teoria un sistema meteo non dovrebbe essere influenzata da una farfalla ali in movimento – il piccolo vento così generato viene smorzato giù troppo velocemente nell’ambiente circostante. Tuttavia, in modo non lineare situazioni, ad un movimento che potrebbe rivelarsi un punto di svolta in circostanze molto rare.

Un buon esempio può essere visto con una casa di calcolatrice con funzioni scientifiche. Selezionare un numero a caso, premere il cos() (coseno) pulsante. Verrà restituito un valore tra 1 e -1. Premere di nuovo, e si genererà un altro numero. Premere un numero sufficiente di volte (e non ci vuole molto) e il numero convergono su un certo valore.

Butterfly Abstraction

Farfalla effetti, apparentemente lievi variazioni in ingresso (o ambiente) può causare differenze significative in uscita, di mettere un limite su quanto si può ottenere con un profondo apprendimento.

Getty
Questo numero non è magico. Piuttosto, perché la maggior parte dei calcolatori hanno un limite al numero di bit che è possibile utilizzare per esprimere un numero in virgola mobile, questo crea una condizione di delimitazione che, inizialmente, ma alla fine domina ogni calcolo successivo. Se il calcolatore aveva infinite cifre, sarebbe continuamente oscillante, ma se si tracciate un grafico, si sarebbe accorto che il grafico di ingresso vs uscita finì per cadere sulla stessa (a forma di farfalla) curva, conosciuto come un attrattore strano.

Profondo sistemi di apprendimento sono altamente ricorsiva, anche se normalmente si usa un kernel o una matrice di trasformazioni, per determinare i valori. Queste reti neurali imitare il modo in cui il cervello elabora le informazioni. Essi sono spesso molto successo nel determinare forme e modelli, ma farlo con la creazione di molti livelli di astrazione, ognuno dei quali richiede un ordine di grandezza in più di energia rispetto al livello precedente. Profondo sistemi di apprendimento sono una grande scoperta di modelli, ma spesso forniscono nuova idea del perché lo fanno, quindi c’è sempre la preoccupante possibilità che dopo l’esecuzione abbastanza a lungo, si sta guardando un attrattore strano che non ha alcun significato per i tuoi dati

Così, mentre la macchina di apprendimento è uno strumento potente, non è una scatola magica. Bias i dati o il modello di treno, macchina, sistemi di apprendimento in modi inappropriati. Strano farfalle possono essere in agguato all’interno, portando gli artefatti che possono essere dovute a fattori che nulla hanno a che fare con i dati. La mancanza di trasparenza nel processo può rendere determinare che cosa è esattamente un modello restituisce problematico, in quanto i comportamenti emergenti possono essere in agguato in background, che sono spesso difficili da scovare. Infine, il più profondo l’apprendimento, più energia è necessaria per mantenere i vari livelli di astrazione, e che l’energia può spesso essere abbastanza significativo per facilitare l’utilizzo di tali sistemi antieconomico.

Finger pressing power button with energy resources icon on earth at night background. Earth day. Environment and conservation. Energy saving concept. Elements of this image furnished by NASA

Macchina di apprendimento è potente, ma il costo dell’energia e la produzione di calore può rendere eccessivamente onerosa.

Getty
Questo non è per dire che questi strumenti sono inutili, la maggior parte dell’evoluzione della macchina di sistemi di apprendimento nell’ultimo decennio hanno dimostrato molto utile ed efficace per un’ampia varietà di applicazioni, e che costituiscono parte integrante dell’intelligenza artificiale toolkit. Il pericolo arriva a pensare che tali sistemi sono davvero intelligenti, piuttosto che semplicemente l’applicazione intelligente di alta velocità, e, occasionalmente, camere non-lineare di soluzioni.

Infatti, vale la pena notare che anche i più grandi, più profondi e complessi-i sistemi di apprendimento sono solo circa 1/10,000 th il numero di connessioni nel cervello umano. Sistemi artificiali sono più veloci, ma di generare un sacco di calore in più, e ci sono collegamenti organici, i sistemi che solo davvero di diventare fattibile una volta che si dispone di un numero sufficiente di connessioni che può anche crescere e a morire nel tempo.

Mettere un altro modo, c’è una tendenza a credere che la macchina di sistemi di apprendimento sono infatti potenzialmente superiore in capacità decisionale. Tuttavia la realtà è più banale -, sono più veloci, e si possono mettere in rete, ma loro sono ancora meglio in un ruolo di consulenza, piuttosto che un processo decisionale uno. La macchina-sistema di apprendimento sulla parte superiore della testa è ancora in ultima analisi, quello che può rappresentare per le variabili che possono essere troppo difficili da quantificare in un AI impostazione, almeno per il prossimo futuro.

social experiment by Livio Acerbo #greengroundit #live https://www.forbes.com/sites/cognitiveworld/2019/08/14/the-danger-of-over-valuing-machine-learning/