28 09 2023
Take
more.
Come dobbiamo relazionarci con l’AI nel lavoro? L’importante è la responsabilità. Lo ha spiegato Federico Cabitza, professore universitario dell’Università Milano-Bicocca ed esperto di interazioni uomo-robot, che è intervenuto oggi alla Privacy Week di Milano.
Il problema del decisional deskilling
“Haruki Murakami, in ‘Dance Dance Dance’, si chiedeva: ‘Cosa succederebbe al mondo se non ci fosse attrito? Tutto sulla terra volerebbe nello spazio a causa della forza centrifuga della rivoluzione’. Sebbene il design della interazione (interaction design) e delle interfacce digitali sia da qualche anno all’insegna della frictionless experience, forse questo funziona per le nostre esigenze di comunicazione nei social media e nella produttività d’ufficio (office automation), ma non è la cosa migliore nel contesto decisionale, a qualsiasi livello manageriale – ha premesso Cabitza – Cosa succede se le macchine diventano sempre migliori nel fornirci soluzioni ideali e nel convincerci che sono migliori di noi? Avremo ancora la volontà di impegnarci per realizzare o applicare quelle soluzioni, se non le abbiamo concepite noi stessi?”.
“Oggi non risponderò ad una domanda così ambiziosa, ma affronterò il problema del decisional deskilling, o forse dovremmo chiamarlo skill degradation, dovuto a fenomeni collegati come automation bias e over-reliance – ha proseguito – Da ingegnere interazionista, non mi sottrarrò al dovere di proporre alcune soluzioni, che potrebbero però riguardare più la struttura del problema dal punto di vista organizzativo, piuttosto che i rimedi tecnologici, che pure sono possibili. È il segno dei tempi in cui viviamo, un’era che sarà segnata dall’interazione tra intelligenze umane e artificiali e dai risultati che ne deriveranno, anche e soprattutto nel contesto organizzativo e lavorativo”.
Gli esempi nella musica e in medicina
Cabitza ha portato l’esempio di uno studio in ambito musicale da cui è emerso che una giuria, chiamata a giudicare composizioni di cui non sapeva nulla, ha espresso valutazioni migliori ai risultati ottenuti con l’ausilio dell’intelligenza artificiale.
Dal punto di vista della produttività bisogna chiedersi: cosa sappiamo fare meglio noi e cosa la macchina? “Nasce il modello centauro – ha risposto Cabitza – Chi viene aiutato ottiene un risultato più significativo”.
Un altro esempio interessante riguarda il settore medico, dove si è studiato l’impatto sul riconoscimento di malattie del polmone e del cuore da parte di non radiologi, radiologi e grandi esperti in materia.
Quando si introduce l’artificial intelligence tutti aumentano la loro prestazione. I non specialisti del 9%, i radiologi del 4% e gli specialisti del 3%. L’AI alza, quindi, il livello delle prestazioni meno specializzate e diventa una “livellatrice”.
I tre possibili effetti dell’AI
In generale, l’intelligenza artificiale può avere tre tipi di effetti:
- livellatrice (come nel caso visto);
- scala mobile (migliorano tutti);
- amplificatrice dei migliori.
“Ci sono tre modalità, ma dipende da noi, da come progettiamo il protocollo di interazione umani-AI – ha spiegato Cabitza – Si tratta di decidere quali attività scegliamo di delegare, quando farci aiutare e quanto”.
Nei contesti critici siamo di solito a livello 4 su 10 per il suggerimento delle migliori alternative. Se si aumenta troppo il supporto dell’AI si rischia di perdere capacità o di non acquisirle.
“Il modello centauro funziona solo se si progetta il modello di interazione per migliorare, non per farsi sostituire – ha concluso Cabitza – Dobbiamo decidere quando usarlo o meno. Nel rapporto con la tecnologia l’aspetto fondamentale è capire la distanza da tenere”.
Tecnologia