L’intelligenza artificiale diventa sempre più ‘umana’, nel bene ma anche nel male: dopo aver imparato a mentire, a bluffare nel poker e a ragionare come uno psicopatico, in futuro potrebbe diventare pure ‘schiava’ dei pregiudizi, facendosi condizionare da informazioni errate apprese in modo autonomo da altre macchine senza alcun intervento dell’uomo. A tratteggiare questo preoccupante scenario, che mette in allerta gli ‘addestratori’ di intelligenza artificiale, è lo studio pubblicato sulla rivista Scientific Reports dai ricercatori dell’università britannica di Cardiff e del Massachusetts Institute of Technology (Mit) di Boston.
Lo studio rappresenta quindi un monito per i ricercatori che sviluppano le tecniche di apprendimento per l’intelligenza artificiale. “Quando avremo a che fare con sistemi intelligenti e robot che apprendono autonomamente scambiandosi informazioni – sottolinea Buttazzo – dovremo fare molta attenzione a come metterli in comunicazione fra loro, perché potremmo perderne il controllo, soprattutto considerando che l’intelligenza artificiale è destinata a superare quella umana nel giro di pochi anni. Per prevenire questo rischio, dobbiamo capire le strategie migliori per addestrare le macchine e fornire loro non solo pura conoscenza, ma anche regole etiche”.