
Una nuova ipotesi ha suscitato un dibattito nella comunità dell’Intelligenza Artificiale (IA). Arriva da Anthropic la proposta di dotare i sistemi IA di un pulsante di “stop” delle proprie attività che dia la capacità di rifiutare un compito assegnato.
Nell’idea che nel tempo i modelli di IA avranno le stesse capacità cognitive dell’uomo, l’ipotetico interruttore avrebbe lo scopo di conferire a tali sistemi il diritto di dire “no”.
Il progetto prevede la distribuzione di modelli IA con un meccanismo integrato per rinunciare ai compiti che non gradiscono. Solo successivamente gli sviluppatori monitorerebbero l’uso del pulsante per identificare incarichi potenzialmente spiacevoli.
Il bias AI
La proposta sembrerebbe scoraggiare una visione delle macchine in quanto strumenti privi di autonomia o coscienza.
Tuttavia, è necessario ricordare che l’IA è addestrata su vasti insiemi di dati umani, in grado di riflettere le nostre inclinazioni, emozioni e pregiudizi.
Già i modelli di IA odierni, come ChatGPT, Gemini o Claude della stessa Anthropic, possono essere programmati per rifiutare compiti che non rientrano nei loro parametri operativi o che potrebbero causare risultati indesiderati o inappropriati.
Dunque, il rifiuto di un’IA nel compiere un’azione non implica necessariamente consapevolezza o esperienza soggettiva, bensì è il risultato di strategie di ottimizzazione basate sui dati di addestramento.
L’opinione pubblica
L’ipotesi di consentire ai modelli IA la scelta di non svolgere incarichi che ritengono “sgradevoli” ha suscitato particolare scetticismo online. I critici sostengono che attribuire alle IA emozioni simili a quelle umane sia una forma eccessiva di antropomorfismo.
Articolo di G.R.D.R.