L'intelligenza artificiale può essere utilizzata per influenzare l'opinione delle persone su tematiche sensibili? È questa la domanda che si sono posti i ricercatori dell'Università di Zurigo, che di recente hanno condotto un esperimento “non autorizzato” su Reddit per verificare se l'AI possa davvero condizionare le idee degli utenti. Per quattro mesi consecutivi, i ricercatori hanno utilizzato bot per condividere commenti generati dall'intelligenza artificale nel popolare subreddit r/changemyview, fingendosi di volta in volta utenti molto diversi tra loro: una “vittima di stupro”, un “uomo di colore” contrario al movimento Black Lives Matter, una persona che “lavora in un centro di accoglienza per la violenza domestica”.
Secondo quanto riportato da 404 Media, sono stati oltre 1700 i commenti condivisi dai bot sulla piattaforma, molti dei quali personalizzati dall'AI per rispondere agli utenti nel modo giusto, ipotizzando “il sesso, l'età, l'etnia, l'ubicazione e l'orientamento politico della persona, desunti dalla cronologia dei suoi post utilizzando un altro LLM”. E nonostante i ricercatori abbiano affermato che si tratta di un numero “molto modesto” e “trascurabile”, non hanno potuto fare a meno di notare che i bot utilizzati nell'esperimento sono riusciti a influenzare le opinioni degli utenti il più delle volte (...):
[
https://www.wired.it/article/intelligenza-artificiale-manipolazione-psicologica-utenti-reddit/ |
https://www.wired.it/article/intelligenza-artificiale-manipolazione-psicologica-utenti-reddit/ ]