Intelligenza Artificiale può diventare arma per hacker



Allarme ricercatori, rischi per infrastrutture e auto autonome

ROMA - Anche l'intelligenza artificiale (AI) potrebbe trasformarsi in un'arma in mano a cybercriminali e Stati canaglia. Dagli attacchi alle infrastrutture critiche agli scontri di automobili a guida autonoma, fino alla creazione di campagne di disinformazione, l'intelligenza artificiale - se violata dagli hacker - rischia di prestarsi ad una serie di usi criminosi che minacciano la sicurezza. L'allarme arriva da uno studio condotto da una ventina di ricercatori delle università di Cambridge, Oxford e Yale, coadiuvati dal gruppo di ricerca OpenAI fondato dall'imprenditore Elon Musk e da esperti di privacy e questioni militari. Nelle mani sbagliate, l'Intelligenza artificiale minaccia la sicurezza digitale. La tecnologia potrebbe ad esempio essere usata per insegnare alle macchine a diventare hacker, sferrando cyberattacchi automatizzati più potenti. Ma non solo. La minaccia è anche alla sicurezza fisica: i criminali potrebbero prendere il controllo delle auto autonome, causando incidenti. Ma anche dei droni, trasformandoli in armi rivolte verso obiettivi mirati. Infine, l'Intelligenza artificiale minaccia la sicurezza politica, attraverso una sorveglianza che azzera la privacy o la repressione. Ancora, potrebbe essere usata per creare video falsi, ma realistici, che vedono i politici come ignari protagonisti, allo scopo di fare propaganda. "Viviamo in un mondo che potrebbe diventare irto di pericoli quotidiani a causa di un uso cattivo dell'AI - avverte Sean O hEigeartaigh, direttore del Centro per lo studio del rischio esistenziale dell'ateneo di Cambridge -. I rischi sono reali. Ci sono scelte che dobbiamo fare ora: il nostro rapporto è una chiamata all'azione per governi, istituzioni e singoli individui in tutto il mondo".


ISCRIVITI ALLA NEWSLETTER

ITALIAN LANGUAGE DAILY NEWSPAPER

PUBLISHED BY GRUPPO EDITORIALE OGGI

Tutti i diritti riservati @ GRUPPO EDITORIALE OGGI e A SOAKING MEDIA