A inteligência artificial (IA) foi apontada por especialistas, incluindo líderes da OpenAI e do Google DeepMind, como uma potencial ameaça à existência da humanidade. Dezenas de apoiadores endossaram uma declaração divulgada pelo Center for AI Safety, destacando a necessidade de mitigar os riscos associados à IA, colocando-os em paralelo com outros perigos globais, como pandemias e guerra nuclear.
Entre as preocupações mencionadas no site do Center for AI Safety estão o possível armamento de IA, a disseminação de desinformação que pode desestabilizar a sociedade, a concentração crescente do poder da IA em poucas mãos e a dependência excessiva dos humanos em relação à IA, semelhante ao cenário retratado no filme “Wall-E”.
Além dos chefes da OpenAI e do Google DeepMind, outras figuras proeminentes, como o Dr. Geoffrey Hinton e o professor Yoshua Bengio, também endossaram a declaração. No entanto, o professor Yann LeCun, também ligado à Meta, expressou ceticismo em relação aos temores apocalípticos, argumentando que muitos pesquisadores de IA consideram essas previsões destrutivas como exageradas.
Embora alguns especialistas considerem os receios em relação à IA como uma ameaça à humanidade como irreais, muitos ainda estão preocupados com os riscos imediatos, como o viés em sistemas de IA que já é um problema. Eles apontam para o potencial de ampliar a escala de decisões automatizadas tendenciosas, discriminatórias e injustas, aumentar a disseminação de desinformação e aprofundar as desigualdades.
No entanto, o diretor do Center for AI Safety, Dan Hendrycks, argumenta que as preocupações atuais não devem ser vistas como opostas aos riscos futuros, afirmando que abordar as questões atuais pode ajudar a enfrentar os riscos futuros.
Desde março de 2023, quando especialistas, incluindo Elon Musk, da Tesla, assinaram uma carta aberta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA, tem havido um aumento na cobertura midiática sobre a suposta ameaça “existencial” da IA. Essa nova campanha busca abrir a discussão sobre os riscos e faz uma comparação com a ameaça representada pela guerra nuclear.
Embora haja debates sobre a gravidade desses riscos, líderes da tecnologia, como Sam Altman e Sundar Pichai, têm discutido recentemente a regulamentação da IA com governantes, visando garantir seu desenvolvimento seguro e protegido. O governo tem analisado a questão com cuidado e está empenhado em implementar barreiras e regulamentações apropriadas.
O G7 também estabeleceu recentemente um grupo de trabalho dedicado à IA, refletindo a importância crescente dessa tecnologia nas discussões globais