Take
more.

Torna all'indice

07 02 2025

Essere umani nell’era dell’AI

“Chi ha paura dell’AI non ha capito di cosa si tratta. Per ogni tecnologia la differenza la fa l’utente, l’utilizzo, la finalità e la governance”. Lo ha detto Roberto Cingolani, intervenuto all’evento “Essere umani nell’era dell’AI”, organizzato da Kpmg al Teatro Franco Parenti di Milano.

“Il pericolo non è l’intelligenza artificiale, ma la furbizia di chi la può usare male – ha proseguito – Bisogna quindi concentrarsi sull’educazione dei cittadini del futuro a cui spiegare le potenzialità e i rischi dell’AI. C’è poi l’aspetto dei dati da proteggere, che rende sempre più importante la cybersecurity”.

Creare regole per un controllo legittimo

Secondo Luciano Floridi, direttore del Centro di Etica Digitale all’Università Yale, la rivoluzione digitale sta costruendo un’architettura che comprende l’AI, ma anche i dati, e bisogna regolamentare tutto.

Emergono due macro-trend: l’eclissi dell’analogico e la svolta hardware. Nel primo caso ci si affida sempre di più al modello della realtà, invece che al sistema reale.

Un esempio è quanto avvenuto a Barcellona, dove usando un modello si è deciso di prevedere lo spegnimento automatico delle luci notturne dei grattacieli che ospitano uffici. Ma questo non ha tenuto conto del fatto che le persone di sera, spaventate dal buio, hanno evitato quelle zone per frequentarne altre.

Un altro esempio si è avuto in Gran Bretagna durante la gestione del Covid, quando l’esigenza di tutelare in ogni caso i dati e la privacy ha finito per penalizzare il contrasto alla pandemia.

“Bisogna che l’Europa acquisisca la sua sovranità digitale con delle regole che portino a un controllo legittimo, democratico e liberale del mondo digitale e, quindi, anche dell’intelligenza artificiale”, ha concluso Floridi.

L’AI per creare valore pubblico

Un concetto ribadito anche da Giovanni Azzone presidente della Fondazione Cariplo, secondo cui la mancanza di governance dell’AI è incapacità di valorizzarne gli aspetti positivi.

“L’AI va portata nelle scuole, ma deve essere usata per sviluppare capacità critica, non solo per usare Chat GPT – ha spiegato – L’intelligenza artificiale può inoltre creare valore pubblico. A seconda di come viene usata, l’innovazione può aiutare la società a rimuovere le disuguaglianze o a crearne di nuove. Bisogna quindi trovare il modo di estrarre valore per tutti”.

Le differenze tra Europa e Usa

Oreste Pollicino, professore di Diritto Costituzionale e Regolamentazione dell’AI all’Università Bocconi, ha sottolineato la necessità di trovare un equilibrio tra innovazione sostenibile e regolamentazione. Non ci si può basare solo sugli algoritmi anche perché nelle principali costituzioni europee è scritto che la dignità personale non può essere violata.

“Esiste un approccio diverso tra Stati Uniti ed Europa – ha detto – Negli Usa si spinge per l’autoregolamentazione, mentre da noi il concetto fondamentale è una regolamentazione che non contrasti l’innovazione, ma sia una bussola”.

L’uomo al centro

Mario Corti, Senior Partner di Kpmg, ha detto che la paura nei confronti dell’AI è normale, ma la fiducia è fondamentale per cogliere le opportunità, è una precondizione per lo sviluppo della tecnologia.

“Per aumentare la fiducia nell’AI l’uomo deve essere sempre al centro, l’intelligenza artificiale va usata per aumentare le sue capacità – ha concluso Corti – Occorre poi un quadro di regole chiare e certe in cui muoversi”.

 

 

 

 

 

 

Tecnologia

07 02 2025

AI, attenzione a dati, ambiente e inclusione

Tecnologia

Read more

07 02 2025

Artificial intelligence, siamo solo all’inizio

Tecnologia

Read more