Mundo

“A grande tecnologia distraiu o mundo do risco existencial da IA”, diz cientista

Cúpula de Seul promoveu debates sobre tecnologia, segurança de IA, inovação e inclusão

A grande tecnologia conseguiu distrair o mundo do risco existencial para a humanidade que a inteligência artificial ainda representa. Foi o que afirmou neste sábado (25/05) ao jornal inglês The Guardian Max Tegmark, um importante cientista e ativista da Inteligência Artificial.

Falando ao Guardian na AI Summit em Seul, Coreia do Sul, Max Tegmark disse que a mudança de foco da extinção da vida para uma concepção mais ampla de segurança da inteligência artificial arriscava um atraso inaceitável na imposição de regulamentação estrita aos criadores dos mais poderosos programas.

“Em 1942, Enrico Fermi construiu o primeiro reator com reação em cadeia nuclear autossustentável sob um campo de futebol de Chicago”, disse Tegmark, que se formou em físico. “Quando os principais físicos da época descobriram isso, eles realmente piraram, porque perceberam que o maior obstáculo que restava para a construção de uma bomba nuclear tinha acabado de ser superado. Eles perceberam que faltavam apenas alguns anos – e na verdade, faltavam três anos, com o teste Trinity em 1945.

“Os modelos de IA que podem passar no teste de Turing [onde alguém não consegue dizer durante uma conversa que não está falando com outro ser humano] são o mesmo aviso para o tipo de IA sobre a qual você pode perder o controle. É por isso que pessoas como Geoffrey Hinton e Yoshua Bengio – e até mesmo muitos CEOs de tecnologia, pelo menos em particular – ficam em pânico agora.”

Novas tecnologias avançam e assustam

O Future of Life Institute, sem fins lucrativos, da Tegmark, liderou no ano passado o apelo a uma “pausa” de seis meses na investigação avançada da IA, com base nesses receios. O lançamento do modelo GPT-4 da OpenAI em março daquele ano foi o canário na mina de carvão, disse ele, e provou que o risco estava inaceitavelmente próximo.

Apesar de milhares de assinaturas, de especialistas como Hinton e Bengio, dois dos três “padrinhos” da IA ​​que foram pioneiros na abordagem à aprendizagem automática que hoje sustenta o campo, não foi acordada qualquer pausa.

Em vez disso, as cimeiras sobre IA, das quais Seul é a segunda depois de Bletchley Park, no Reino Unido, em Novembro passado , lideraram o campo incipiente da regulamentação da IA. “Queríamos que aquela carta legitimasse a conversa e estamos muito satisfeitos com o resultado. Quando as pessoas perceberam que pessoas como Bengio estavam preocupadas, pensaram: ‘Tudo bem eu me preocupar com isso.’ Até o cara do meu posto de gasolina me disse, depois disso, que estava preocupado com a possibilidade da IA ​​nos substituir.

“Mas agora, precisamos deixar de apenas falar o que falar e passar a fazer o mesmo.”

Desde o anúncio inicial do que se tornou a cimeira de Bletchley Park, no entanto, o foco da regulamentação internacional da IA ​​afastou-se do risco existencial.

Em Seul, apenas um dos três grupos de “alto nível” abordou diretamente a segurança e analisou o “espectro completo” de riscos, “desde violações de privacidade a perturbações no mercado de trabalho e potenciais resultados catastróficos”. Tegmark argumenta que a minimização dos riscos mais graves não é saudável – e não é acidental.

“Isso é exatamente o que eu previ que aconteceria com o lobby da indústria”, disse ele. “Em 1955, surgiram os primeiros artigos de periódicos dizendo que fumar causa câncer de pulmão, e seria de se pensar que rapidamente haveria alguma regulamentação. Mas não, demorou até 1980, porque houve um enorme impulso da indústria para distrair. Sinto que é isso que está acontecendo agora.

“É claro que a IA também causa danos atuais: há preconceito, prejudica grupos marginalizados… Mas como a própria [secretária de ciência e tecnologia do Reino Unido] Michelle Donelan disse, não é como se não pudéssemos lidar com ambos. É como dizer: ‘Não vamos prestar atenção às mudanças climáticas porque vai haver um furacão este ano, então devemos nos concentrar apenas no furacão’”.

Os críticos de Tegmark apresentaram o mesmo argumento relativamente às suas próprias afirmações: que a indústria quer que todos falem sobre riscos hipotéticos no futuro para desviar a atenção dos danos concretos no presente, uma acusação que ele rejeita. “Mesmo se você pensar sobre isso por seus próprios méritos, é bastante inteligente : seria um xadrez bastante 4D para alguém como [o chefe da OpenAI] Sam Altman, a fim de evitar a regulamentação, para dizer a todos que poderia haver luzes apagadas para todos e depois tentar persuadir pessoas como nós a soar o alarme.”

Em vez disso, argumenta ele, o apoio silencioso de alguns líderes tecnológicos deve-se ao facto de “acho que todos sentem que estão presos numa situação impossível onde, mesmo que queiram parar, não conseguem. Se o CEO de uma empresa de tabaco acordar uma manhã e sentir que o que está fazendo não está certo, o que acontecerá? Eles vão substituir o CEO. Portanto, a única maneira de obter segurança em primeiro lugar é se o governo estabelecer padrões de segurança para todos.”

Leia também: Em cúpula sobre IA em Seul, Coreia do Sul pede que mundo tem de cooperar na tecnologia

Outras notícias e informações na seção Mundo do Infoflashbr.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo