Carta assinada por Elon Musk pedindo pausa nos estudos sobre IA gera polêmica

Uma carta co-assinada por Elon Musk e centenas de outras pessoas exigindo uma pausa nas pesquisas sobre inteligência artificial criou uma grande celeuma, principalmente depois que houve a revelação de que alguns signatários do documento eram nomes falsos.

Em 22 de março, mais de 1.800 signatários – incluindo Musk, o cientista cognitivo Gary Marcus e o cofundador da Apple, Steve Wozniak – pediram uma pausa de seis meses no desenvolvimento de sistemas de IA “mais poderosos” que o GPT- 4. Engenheiros da Amazon, DeepMind, Google, Meta e Microsoft também deram seu apoio.

Desenvolvido pela OpenAI, uma empresa co-fundada por Musk e agora apoiada pela Microsoft, o GPT-4 desenvolveu a capacidade de manter uma conversa humana, compor músicas e resumir documentos longos. Tais sistemas de IA com “inteligência humana competitiva” representam riscos profundos para a humanidade, afirmou a carta.

“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que sejam rigorosamente auditados e supervisionados por especialistas externos independentes”, disse o documento assinado por Musk e tantos outros.

Quando lançada inicialmente, a carta não passou por protocolos de verificação dos apoiamentos, e acumulou assinaturas de pessoas que efetivamente não a assinaram, incluindo o presidente chinês Xi Jinping e o cientista-chefe de IA da Meta, Yann LeCun, que esclareceu no Twitter que não a apoiava.

Os críticos da carta acusaram o Future of Life Institute (FLI), que é financiado principalmente pela Fundação Musk, de priorizar cenários apocalípticos imaginados em detrimento de preocupações mais imediatas sobre IA – como preconceitos racistas ou sexistas sendo programados nas máquinas.

“Ao tratar muitas ideias questionáveis ​​como um dado adquirido, a carta afirma um conjunto de prioridades e uma narrativa sobre IA que beneficia os apoiadores da FLI”, disse à Reuters a cientista Margaret Mitchell, da empresa de IA Hugging Face. “Ignorar danos ativos agora é um privilégio que alguns de nós não têm.”

Shiri Dori-Hacohen, professora assistente da Universidade de Connecticut, também questionou o fato de seu trabalho ser mencionado na carta. No ano passado, ela foi coautora de um trabalho de pesquisa argumentando que o uso generalizado de IA já representava sérios riscos.

Sua pesquisa argumentou que o uso atual de sistemas de IA pode influenciar a tomada de decisões em relação às mudanças climáticas, guerra nuclear e outras ameaças existenciais. Ela disse à Reuters: “A IA não precisa atingir a inteligência em nível humano para exacerbar esses riscos. Existem riscos inexistentes que são muito, muito importantes, mas não recebem o mesmo tipo de atenção do nível de Hollywood.”

Solicitado a comentar as críticas, o presidente da FLI, Max Tegmark, disse que os riscos de curto e longo prazo da IA ​​devem ser levados a sério. “Se citarmos alguém, significa apenas que afirmamos que essa pessoa está endossando aquela frase. Isso não significa que eles estão endossando a carta ou que endossamos tudo o que eles pensam”, disse ele à Reuters.

Fonte: The Guardian com informações da Reuters

Sair da versão mobile