Le bugie dei robot sono accettabili solo se a fin di bene – Future Tech
Le bugie dei robot sono considerate
accettabili solo se sono a fin di bene, come nel caso di un
robot-infermiere che rassicura la sua paziente malata di
Alzheimer dicendole che il marito tornerà presto a casa. Lo ha
scoperto lo studio pubblicato sulla rivista Frontiers in
Robotics and AI e guidato dall’americana George Mason
University: negli altri scenari, un robot-colf che nasconde il
fatto che sta filmando quello che gli accade intorno o il
robot-commesso che si fa sostituire da un umano fingendo di
essere stanco, per i partecipanti si tratta di menzogne non
accettabili, per le quali sono ritenuti responsabili gli
sviluppatori e i proprietari delle macchine.
I ricercatori guidati da Andres Rosero hanno reclutato circa
500 partecipanti, che dovevano decidere se approvare o meno il
comportamento dei robot nei vari scenari, quanto fosse grave la
bugia e se fosse in qualche misura giustificata. Le condanne più
severe sono arrivate per il robot-colf, che registra senza
comunicarlo apertamente, un comportamento considerato molto
ingannevole, mentre circa la metà dei partecipanti hanno
disapprovato anche il robot-commesso. Quasi tutti, invece, hanno
approvato la bugia del robot-infermiere, considerata necessaria
per proteggere la paziente da un dolore inutile.
“Penso che dovremmo preoccuparci di qualsiasi tecnologia in
grado di nascondere la vera natura delle sue capacità, perché
potrebbe portare gli utenti a essere manipolati in modi che
l’utente, e forse lo sviluppatore, non avevano previsto”,
commenta Rosero. “Abbiamo già visto esempi di aziende che
utilizzano i principi del web design e i chatbot basati
sull’Intelligenza Artificiale in modi progettati per spingere
gli utenti a compiere una determinata azione. Abbiamo bisogno di
regole – aggiunge il ricercatore – che ci proteggano da questi
comportamenti ingannevoli”.
Riproduzione riservata © Copyright ANSA