Il ceo di Anthropic propone un pulsante di stop per le intelligenze artificiali
Durante un evento al Council on Foreign Relations negli Stati Uniti, Dario Amodei, CEO di Anthropic, una delle principali startup nel campo dell’intelligenza artificiale e concorrente di OpenAI, ha proposto un’idea che potrebbe sembrare rivoluzionaria: l’integrazione di un pulsante di stop per le intelligenze artificiali. Questo pulsante permetterebbe ai modelli di IA di auto-bloccarsi quando si trovano a dover prendere decisioni su argomenti delicati o pericolosi, o semplicemente quando non vogliono svolgere un determinato compito. “Penso che dovremmo almeno considerare la questione, sapendo che più andiamo avanti, più i modelli avranno capacità cognitive simili a quelle umane”, ha spiegato Amodei.
La proposta di Amodei è stata una risposta a una domanda sulla possibilità che un giorno i chatbot possano essere considerati più di semplici piattaforme software, fino a diventare entità riconosciute con emozioni. Alla fine del 2024, Anthropic ha assunto un manager dedicato al benessere delle IA, con l’obiettivo di sviluppare linee guida sull’atteggiamento da adottare nei confronti dei modelli più utilizzati.
Il suggerimento di dare alle IA un modo per rifiutare i compiti imposti ha suscitato un certo scetticismo sui social media come X e sui forum di Reddit. Molti utenti ritengono che fornire all’IA un’opzione simile possa incoraggiare un’errata attribuzione di sentimenti e motivazioni umane. “Ma l’IA non ha esperienze soggettive, ottimizza solo le funzioni di ricompensa che le diamo”, si legge su Reddit.
Nel frattempo, il colosso cinese Alibaba ha recentemente svelato R1-Omni, un modello di IA generativa capace di riconoscere le emozioni sul volto delle persone. Questo sviluppo sottolinea ulteriormente l’importanza di discutere e considerare le implicazioni etiche e pratiche dell’evoluzione delle intelligenze artificiali.
Fonte: Ansa
Ricevi le ultime attualità sul mondo tech!