Take
more.

Torna all'indice

08 03 2024

L’AI cambierà la nostra società a una velocità mai vista

“L’AI cambierà la nostra società a una velocità mai vista”. A dirlo è stato Giovanni Ziccardi, professore di Informatica giuridica all’Università Statale di Milano, intervenuto al convegno “Informazione e intelligenza artificiale: una sinergia possibile?”, organizzato a Milano a Palazzo Pirelli dal Corecom e dell’Ordine dei Giornalisti della Lombardia.

Il problema della protezione dei dati e del copyright

“Oggi una persona su due che parla di intelligenza artificiale in realtà non sa quasi nulla di questo tema. È inutile cercare umanità nell’AI, visto che non c’è neanche nella nostra società: basti pensare che la maggior parte degli investimenti in artificial intelligence riguardano l’ambito bellico – ha detto – Siamo inoltre alla vigilia del primo vero incontro tra AI, falso e disinformazione in periodo elettorale perché quest’anno circa metà della popolazione mondiale andrà a votare. Ci sono vari problemi da affrontare: siti di news false realizzate con l’intelligenza artificiale, protezione dei dati e tutela del copyright”.

Cesare Gariboldi, presidente del Corecom Lombardia, ha sottolineato che, come tutte le tecnologie, l’AI non è né buona né cattiva, dipende dall’uso che se ne fa. Basti solo pensare che può essere utilizzata per creare fake news, ma anche per scoprire notizie false.

Il rischio dell’omologazione

“Non è intelligenza artificiale, piuttosto una macchina statistica sofisticata. Chi ha ideato il termine AI è un grande comunicatore, ma il termine è fuorviante – ha spiegato Riccardo Sorrentino dell’Ordine dei Giornalisti della Lombardia – Anche con questa tecnologia il ruolo dei giornalisti sarà sempre importante perché nell’artificial intelligence manca la realtà e si limita verificare ciò che è coerente con tutto il resto. I fatti, invece, sono complessi ed è difficile interpretarli. Bisogna quindi pensare all’AI come a una macchina a cui manca l’elemento della realtà. Questo può essere un problema per la varietà delle informazioni: il rischio è l’omologazione”.

Per Massimiliano Capitanio di Agcom bisogna considerare anche i rischi correlati con il diritto d’autore, il pluralismo, gli aspetti etici. Ed è necessario che la pubblicazione di contenuti creati con l’intelligenza artificiale siano indicati in modo esplicito.

“La verità è che siamo tutti spaventati, a cominciare dagli informatici – ha detto Marco Delmastro, economista dell’Agcom – L’interesse pubblico è esploso con ChatGpt, ma in realtà l’AI è nata nel 1956, ha avuto un periodo di ‘inverno’ negli anni ’70/’80, e ha poi avuto una rinascita con l’avvento dei big data, che alimentano sistemi di conoscenza e predizione”.

“Oggi c’è una corsa tra grandi piattaforme digitali per vincere la ’guerra’ dell’AI: Open AI/Microsoft, Meta, Google e Amazon – ha concluso Delmastro – Il vecchio Web sta morendo, ma non sappiamo ancora come sarà il nuovo”.

Le trappole cognitive

Marianna Sala, avvocata e vicepresidente del Corecom Lombardia, ha ricordato gli elementi che favoriscono la disinformazione: le trappole cognitive e l’evoluzione tecnologica.

Per quanto riguarda le prime, i bias cognitivi fanno parte della mente umana e consentono di prendere decisioni più velocemente. Si assiste così alla tendenza a credere ciò che pensa la maggior parte delle persone e alla disponibilità ad approfondire solo le notizie che confermano le nostre convinzioni precostituite.

Si tende poi a guardare al futuro con timore e in modo più favorevole al passato. Questi bias condizionano le nostre idee e favoriscono chi crea delle trappole cognitive. Infine, ci sono le “bolle di filtraggio”: tutti creiamo un ecosistema personalizzato dell’informazione creato dagli algoritmi di cui entra a far parte solo chi la pensa come noi.

“I rischi connessi alla diffusione di informazioni manipolate sono elevati perché la potenza dell’intelligenza artificiale è alta”, ha concluso.

Per Veronica Cella, avvocata a componente del Corecom Lombardia, la valutazione delle implicazioni etiche, la verifica e l’analisi critica delle informazioni rimangono una prerogativa dei giornalisti.

L’AI alleata dei giornalisti

“I giornalisti non devono vedere l’AI come un nemico, ma come un alleato – ha spiegato Ruben Ruzzante, docente di comunicazione dell’Università Cattolica di Milano – Il giornalista sa analizzare le fonti e vagliarle in modo critico, cosa che l’intelligenza artificiale non può fare. Occorre quindi che la tecnologia sia al servizio del giornalista, che ha il valore aggiunto della deontologia”.

Enrico Pagliarini di Radio 24 ha ribadito che l’AI non crea informazione in modo autonomo, ma rielabora informazioni già esistenti. È il giornalista, invece, che parla con le persone, partecipa a eventi, telefona e cerca le informazioni che creano una vera notizia.

“Bisogna considerare che l’intelligenza artificiale lavora su dati morti – ha concluso Massimo Vanzari, Ceo di ReD Open – Ciò detto, siamo alla vigilia di una nuova rivoluzione industriale di cui ancora nessuno sa quali saranno gli sviluppi”.

ComunicazioneTecnologia

11 11 2024

Linguaggio inclusivo: le parole contano

Comunicazione | Eventi

Read more

06 11 2024

Intersections, opportunità e limiti dell’intelligenza artificiale

Comunicazione | Eventi

Read more