Por que as grandes empresas de IA querem que tenhamos medo
Executivos de companhias de inteligência artificial advertem regularmente sobre os perigos de seus próprios produtos, levantando questões sobre as verdadeiras motivações por trás dessa estratégia
Já ouviu isso antes: uma empresa de tecnologia afirma ter desenvolvido uma inteligência artificial (IA) tão poderosa que é assustadora.
Aparentemente, é demasiado perigosa para ser lançada ao mundo; as consequências seriam catastróficas.
Por sorte nossa, a empresa a manterá sob controle por enquanto. Apenas queriam que soubéssemos disso.
É exatamente o que a empresa de IA Anthropic nos está dizendo sobre seu último modelo: Claude Mythos.
A companhia assegura que a capacidade do Mythos para detectar falhas de cibersegurança supera em muito a de especialistas humanos, e que essa tecnologia poderia ter consequências capazes de alterar a ordem mundial se caísse nas mãos erradas.
"As repercussões — para as economias, a segurança pública e a segurança nacional — poderiam ser graves", declarou a Anthropic em uma postagem de blog publicada no início de abril.
Alguns, com tom exagerado de alarme, advertiram que o Mythos em breve nos forçará a substituir cada dispositivo tecnológico de nossas vidas — até mesmo o micro-ondas com conexão wifi — para nos protegermos dessa loucura digital.
Certos especialistas em segurança questionam essas afirmações, mas deixemos isso de lado por enquanto. Isso não é nada novo.
Os executivos dos principais fornecedores de IA emitem advertências regularmente sobre como os produtos de sua própria indústria poderiam acabar com a humanidade.
É uma forma estranha de se referir ao próprio trabalho por parte de qualquer empresa.
Não é comum ouvir o McDonald's anunciar que criou um hambúrguer tão assustadoramente delicioso que seria antiético cozinhá-lo para o público.
Segundo alguns analistas, às empresas de IA convém nos manter obsessionados com a ideia do apocalipse, pois isso desvia a atenção do dano muito real que já estão causando no mundo.
Os líderes tecnológicos argumentam que simplesmente nos estão advertindo sobre um futuro inevitável e que a segurança é uma prioridade absoluta, seja agora ou mais adiante.
No entanto, outros argumentam que o que realmente estamos presenciando é uma estratégia de infundir medo, que exagera o potencial da tecnologia e serve para impulsionar o preço das ações.
Além disso, promove a narrativa de que os organismos reguladores devem se manter afastados, sob o pretexto de que essas empresas de IA são as únicas capazes de deter os "vilões" e de desenvolver essa tecnologia de forma responsável.
"Se essas tecnologias se apresentam como algo quase sobrenatural em termos de sua periculosidade, nos faz sentir impotentes, como se estivéssemos superados", afirma Shannon Vallor, professora de ética de dados e inteligência artificial na Universidade de Edimburgo.
"Como se as únicas pessoas a quem pudéssemos recorrer fossem as próprias empresas", acrescenta.
Um porta-voz da Anthropic comentou que a empresa tem sido clara com respeito a essas questões.
Compartilharam postagens de blog de outras organizações que respaldavam as capacidades cibernéticas do Mythos, mas não disseram nada para abordar os pontos levantados neste artigo, com exceção de um comentário que incluirei mais adiante.
Esta não é a primeira vez que o diretor da Anthropic, Dario Amodei, trabalha em uma ferramenta que a própria empresa da qual faz parte declarou demasiado perigosa para o público.
Em 2019, quando Amodei era executivo na OpenAI, a companhia anunciou o GPT-2.
Esta notícia foi traduzida pela Equipe Editorial do ParaguaiNews a partir da notícia original publicada por nossos colegas do Diario Paraguayo.
Nossa equipe editorial trabalha para oferecer informação clara, completa e atualizada para o leitor brasileiro.