Un interessante articolo pubblicato da Andrea Daniele Signorelli su Prismo il 31/01/2017, intitolato Il lato oscuro del machine learning.
Scheda articolo
Titolo: "Il lato oscuro del machine learning"
Argomento: l'utilizzo dell'I.A. per la risoluzione di problemi a partire da set di dati produce davvero "apprendimento"?
Problema: quali sono le possibili conseguenze e i limiti delle varie forme di "machine learning" in quei casi cruciali in cui a tale procedura viene dato il compito di prendere decisioni?
Machine Learning
Molto interessante l'articolo di Andrea Signorelli perché riesce a spiegare cosa sia il "machine learning", perché e come venga impiegato e quali situazioni problematiche il suo utilizzo comporti.
Inoltre l'esame delle problematiche connesse all'intelligenza artificiale e al machine learning, aprono interessanti punti di vista da cui guardare a temi tradizionali e cruciali in ambito educativo: cosa significa apprendere? Che cosa sono l'intelligenza e il pensiero? Cosa significa comprendere?
Sovraccarico informativo e soluzione ingegneristica
Le dimensioni dell'information overload, il sovraccarico di dati, sono tali che risulta impossibile ricavare dalla mole di dati conoscenze, soluzioni a problemi e decisioni operative. La soluzione "ingegneristica" e quella di affidarsi a sistemi di intelligenza artificiale, tale pratica e la ricerca teorica ad essa connessa vengono definite "machine learning".
Ma si può dire che questi sistemi apprendano realmente? Che comprendano? Che siano in grado di dare conto delle scelte che fanno?
Due casi per capire
Per comprendere importanza e dimensioni i questo problema riporto due casi citati da Andrea Signorelli:
- Nel 2015 il sistema di riconoscimento delle immagini di Google è incappato in un delicato problema: taggava le persone di colore come "gorilla". Non si è riusciti a capire perché l'algoritmo fosse giunto a questa erronea conclusione. L'unica soluzione è quindi stata quella di "vietare" all'algoritmo di classificare qualunque cosa come "gorilla".
- "Se l’algoritmo che guida un’auto dovrà decidere se investire un bambino che si è gettato all'improvviso in mezzo alla strada oppure sterzare di colpo con il rischio di ferire gravemente l’autista e i passeggeri", non sarà il caso di sapere perché l'auto abbia preso una determinata decisione? Eppure questo non è, al momento, possibile.
I due esempi rendono abbastanza chiara quale sia la posta in gioco e quale il peso e il significato dei problemi che l'approccio ingegneristico ponga.
Cura dei contenuti
Esiste un'altra via per affrontare il problema dell'overload informativo? Esiste, ma i suoi scopi non sono esattamente gli stessi. Si tratta di quella che viene definita "content curation" e che è una via umanistica, non nel senso delle scienze umane (secondo la provinciale e superata dicotomia che contrappone scienze umane e scienze della natura), ma nel senso che è basata sull'uomo e non sulla macchina. Non, però, sull'uomo inteso come singolo individuo in competizione con gli altri, ma parte di un tutto: l'intelligenza collettiva. Il paradigma del "prendersi cura" implica che la cura sia reciproca, cura di sé e cura dell'altro si richiamano e rimandano necessariamente l'una all'altra, come due opposti complementari eraclitei.
Due vie destinate a contrapporsi?
Cura dei contenuti attraverso l'intelligenza collettiva e intelligenza artificiale sono forse due vie destinate a contraddirsi in eterno? È immaginabile un'intelligenza collettiva in cui uomo e macchina possano dialogare? Se non sarà così non ci aspetta un bel futuro.
L'etica deve entrare nel mondo dell'I.A. e del machine learning. Chi ricorda le tre leggi della robotica di Isaac Asimove i racconti che hanno come protagonista Susan Calvin, forse può apprezzare tale conclusione meglio di altri.
Link Utili
- sulle tre leggi della robotica: Wikipedia, Tre leggi della robotica;
- articoli di Robin Good sulla content curation;
- Intelligenza collettiva: una raccolta di webinar, articoli, interviste su intelligenza collettiva realizzata con Pearltrees:
- riassunto del libro di Levy Intelligenza collettiva;
- Andrea Signorelli, Le origini dell'intelligenza artificiale.