Diário de São Paulo
Siga-nos

Entenda como a inteligência artificial pode levar à extinção da humanidade

Especialistas advertem sobre os riscos da inteligência artificial (IA) e seu potencial impacto na sobrevivência da humanidade

IA vs. humanidade. - Imagem: Freepik
IA vs. humanidade. - Imagem: Freepik

Marina Roveda Publicado em 03/06/2023, às 21h44


Chefes da OpenAI e do Google DeepMind, juntamente com dezenas de outros especialistas, divulgaram uma declaração no Center for AI Safety (Centro de Segurança de Inteligência Artificial) em São Francisco, nos Estados Unidos, alertando que a inteligência artificial pode levar à extinção da humanidade. Eles destacaram que mitigar os riscos da IA deve ser uma prioridade global, ao lado de outros riscos sociais em grande escala, como pandemias e guerra nuclear.

A carta aberta destaca a necessidade de mitigar os riscos da IA, incluindo a ameaça de extinção, juntamente com desafios globais como pandemias e guerra nuclear. Contudo, outros especialistas afirmam que os temores são exagerados.

"Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear", aponta a carta aberta.

Sam Altman, CEO da OpenAI, fabricante do ChatGPT, Demis Hassabis, CEO do Google DeepMind, e Dario Amodei, da Anthropic, endossaram a declaração.

A declaração do Center for AI Safety apresenta diversos cenários de desastres possíveis:

  • A IA pode ser armada, utilizando ferramentas para descobrir drogas que possam ser usadas na fabricação de armas químicas;
  • A desinformação gerada pela IA pode desestabilizar a sociedade e minar a tomada de decisões coletivas;
  • O poder da IA pode se concentrar cada vez mais nas mãos de poucos, permitindo que regimes restrinjam valores por meio de vigilância e censura opressiva;
  • O enfraquecimento, no qual os humanos se tornam dependentes da IA, semelhante ao retratado no filme Wall-E.

Geoffrey Hinton, que já alertou sobre os riscos da IA superinteligente, também apoiou a carta do Center for AI Safety. Yoshua Bengio, professor de Ciência da Computação na Universidade de Montreal, no Canadá, também assinou o manifesto.

Hinton, Bengio e Yann LeCunn, professor da Universidade de Nova York (NYU), frequentemente chamados de "padrinhos da IA" por suas contribuições inovadoras, receberam o Prêmio Turing de 2018 juntos.

No entanto, o professor LeCunn, que também trabalha na Meta, empresa controladora do Facebook, considera os avisos apocalípticos exagerados e afirma que a reação mais comum dos pesquisadores de IA a essas profecias de destruição é embaraçosa.

Muitos outros especialistas acreditam que o medo de que a IA acabe com a humanidade é irreal e uma distração dos problemas já existentes, como o preconceito nos sistemas.

Arvind Narayanan, cientista da computação da Universidade de Princeton, nos EUA, afirma que os cenários de desastre da ficção científica não são realistas, enfatizando que a IA atual está longe de ser capaz o suficiente para materializar esses riscos. Ele ressalta que devemos direcionar a atenção para os danos de curto prazo causados pela IA.

Elizabeth Renieris, pesquisadora sênior do Instituto de Ética em IA da Universidade de Oxford, no Reino Unido, expressa preocupação com riscos mais iminentes. Segundo ela, os avanços na IA ampliarão a escala da tomada de decisão automatizada, que pode ser tendenciosa, discriminatória e injusta, ao mesmo tempo em que é inescrutável e incontestável. Esses avanços podem aumentar a disseminação de desinformação, corroer a confiança do público e gerar mais desigualdade.

"Os avanços na IA ampliarão a escala da tomada de decisão automatizada que é tendenciosa, discriminatória, excludente ou injusta. Ao mesmo tempo em que é inescrutável e incontestável", acredita ela.

Renieris destaca que muitas ferramentas de IA se baseiam na experiência humana acumulada até o momento, o que transferiu poder e riqueza para um pequeno grupo de entidades privadas.

A cobertura da imprensa sobre a suposta ameaça existencial da IA tem crescido desde março de 2023, quando especialistas, incluindo Elon Musk, dono da Tesla, assinaram uma carta pedindo a suspensão do desenvolvimento da próxima geração de tecnologia de IA.

A nova declaração divulgada pelos especialistas tem o objetivo de abrir a discussão e compara o risco representado pela IA ao da guerra nuclear.

A OpenAI sugeriu recentemente, em um post em seu blog, que a superinteligência possa ser regulada de maneira similar à energia nuclear, citando a necessidade de uma agência internacional para os esforços em superinteligência.

Compartilhe  

últimas notícias