I modelli di Machine Learning non sono sempre in grado di gestire la realtà (mentre la maggior parte degli esseri umani sì)

question-marks-on-white-board

Un numero sempre più elevato di leader aziendali considera l’intelligenza artificiale (AI) e l’apprendimento automatico (ML), tecnologie di trasformazione che possono consentire un migliore processo decisionale, l’aumento dell’efficienza, l’eliminazione dell’errore umano e l’abbattimento dei costi.

Per molti dipendenti, tuttavia, le prestazioni incessanti e automatizzate promesse dalle macchine intelligenti incombono come una minaccia sul loro lavoro. Dopo tutto, quale essere umano può eguagliare la produttività e l’efficacia di un sistema ML che non si stanca, non va in pausa pranzo e non finisce su Instagram?

Ma quando la teoria entra in collisione con la realtà, solitamente vince quest’ultima. E questo perché la realtà è disordinata e imperfetta, piena di difetti imprevisti e colpi di scena. Tradotto nel linguaggio di IA e ML, significa che i modelli di apprendimento automatico sono alimentati da molti dati incompleti, confusi e inaccurati, che contaminano il processo di apprendimento, distorcono la loro percezione e portano a previsioni sbagliate su modelli e risultati.

“Nell’istante in cui metti in produzione un modello di apprendimento ML, questo inizia a peggiorare”, scrive David Talby, collaboratore di Forbes e Pacific AI CTO. “La precisione del tuo modello sarà ottimale finché non inizi ad usarlo. Quindi si deteriora mentre il mondo è stato addestrato a prevedere i cambiamenti “.

Mentre Talby è l’esperto in materia, la mia opinione in merito è leggermente diversa: il problema non è che i vari modelli ML siano in grado di prevedere o meno i cambiamenti. Piuttosto, il punto cruciale è che il modello ML non è stato concepito per operare in un mondo del genere. Talby si riferisce ad un progetto ospedaliero in cui è stato distribuito l’apprendimento ML per prevedere ricoveri di 30 giorni. Nel giro di tre mesi il programma è degenerato in un disastro, con le capacità predittive del propotipo ML che sono peggiorate progressivamente.

“Modificando alcune voci delle cartelle cliniche elettroniche è diventato molto più facile compilarle, anche se non era possibile redigere l’intero documento con le informazioni richieste e alcuni campi venivano lasciati in bianco”, continua ad affermare Talby. “L’invio di alcuni test da un laboratorio ad un altro ha comportato l’utilizzo di codici diversi da quelli utilizzati in precedenza. Iniziare a contrattare un altro tipo di assicurazione sanitaria, ha fatto si che cambiasse la tipologia di pazienti che si presentavano al pronto soccorso. Ognuna di queste modifiche interrompe le funzionalità del modello o modifica le distribuzioni precedenti su cui il sistema stesso è stato incentrato, con conseguente riduzione della precisione nella previsione. ”

Talby offre inoltre alcuni consigli pratici, il migliore dei quali è quello di tenere informate e aggiornate le persone dopo il lancio del progetto. Non lasciatevi cullare dal pensiero che i vostri modelli ML siano già pronti a prendere decisioni razionali da persone adulte. Scienziati ed ingegneri dovrebbero tenere d’occhio i cambiamenti nei dati di input per ridurre al minimo le probabilità che si possano distorcere portando così a previsioni imprecise e non accurate.

La lezione più importante qui è che gli esseri umani possono ancora contribuire con preziose informazioni, conoscenze ed esperienza alle iniziative di AI e ML aziendali. Le macchine possono essere in grado di raccogliere e analizzare un maggior numero di dati molto più velocemente rispetto alle persone, ma possono ancora essere tradite da informazioni sbagliate o mancanti, e programmazioni inadeguate. Sì, anche gli umani possono essere indotti in errore, ma sono ancora in possesso di quel mix esclusivo di intuizione, esperienza (diretta e indiretta), scetticismo e una storia del pensiero collettiva molto più lunga rispetto alle macchine intelligenti. Sono meglio equipaggiati per anticipare e adattarsi al caos, al rumore e alla confusione della realtà. E non è una cosa da poco.


Chris Nerney è uno scrittore newyorkese, che si occupa di mobile technology e automatizzazione.

 

Speak Your Mind

*

This site uses Akismet to reduce spam. Learn how your comment data is processed.