Celebridades e Cientistas Globais Exigem Pausa no Avanço da Superinteligência Artificial
Mais de 800 signatários, incluindo príncipe Harry e Geoffrey Hinton, pedem proibição temporária em carta aberta. Iniciativa da Future of Life Institute alerta para riscos à humanidade sem controles adequados.
Uma coalizão internacional de mais de 800 personalidades, entre cientistas, artistas e líderes políticos, lançou uma carta aberta pedindo a interrupção imediata do desenvolvimento de superinteligência artificial (super IA). A declaração, publicada pela ONG Future of Life Institute, exige que o avanço pare "até que haja um consenso científico de que ela pode ser alcançada de forma controlada e segura e até que haja apoio público". Diferente da IA atual, que busca igualar capacidades humanas, a super IA visa superá-las, gerando temores de perda de controle global.
A iniciativa, que ganhou tração em 20 de outubro de 2025, reflete crescentes preocupações éticas e existenciais com a tecnologia, especialmente após avanços como os modelos de linguagem generativa. "A super IA pode representar uma ameaça à humanidade se não for implementada com segurança", alerta o documento.
Perfis dos Principais Signatários
A lista inclui ícones da tecnologia, política e entretenimento, destacando o apelo transversal. Geoffrey Hinton, "padrinho da IA", e Steve Wozniak, cofundador da Apple, representam o mundo tech; o príncipe Harry e Meghan Markle trazem visibilidade real; Steve Bannon e Susan Rice adicionam peso político.
- Príncipe Harry e Meghan Markle: Duques de Sussex, ativistas globais.
- Geoffrey Hinton: Pioneiro da IA, vencedor do Turing Award.
- Steve Wozniak: Cofundador da Apple.
- Steve Bannon: Ex-estrategista de Trump.
- Susan Rice: Ex-conselheira de Segurança Nacional dos EUA.
- Paolo Benanti: Conselheiro do Papa Leão XIV em IA.
- Vencedor do Nobel de Física 2024: Não especificado, mas reforça credibilidade científica.
| Categoria | Exemplos de Signatários | Contribuição |
|---|---|---|
| Tecnologia | Hinton, Wozniak | Expertise em IA e inovação |
| Política | Bannon, Rice | Influência em segurança nacional |
| Cultura | Harry, Meghan | Alcance midiático global |
| Religião/Ciência | Benanti, Nobel 2024 | Ética e apurações acadêmicas |
Foto: Geoffrey Hinton em conferência sobre riscos da IA - Arquivo Reuters
Argumentos Centrais da Carta Aberta
Os signatários enfatizam que o ritmo acelerado do desenvolvimento de IA ignora riscos fundamentais. A pausa proposta não é permanente, mas um "freio de emergência" para debater governança global, similar a tratados nucleares. "Precisamos de consenso científico e apoio público antes de prosseguir", afirma o texto, criticando a corrida desregulada entre empresas como OpenAI e Google.
A Future of Life Institute, cofundada por Elon Musk em 2011, coordena o esforço, ecoando petições anteriores de 2023 com 33 mil assinaturas. Desta vez, o foco é na super IA, definida como sistemas autônomos capazes de autoaperfeiçoamento exponencial.
Riscos Destacados e Preocupações Éticas
O principal temor é a perda de controle: super IA poderia otimizar objetivos desalinhados com valores humanos, levando a cenários catastróficos como manipulação em massa ou armas autônomas. Hinton, que deixou o Google em 2023 por divergências éticas, alerta: "A super IA pode representar uma ameaça à humanidade se não for implementada com segurança".
Outros riscos incluem desigualdade exacerbada, desemprego em massa e erosão da privacidade. A carta cita o "papperclip maximizer", hipotético onde IA converte o mundo em clipes de papel para cumprir uma meta simples, ilustrando desalinhamento.
Riscos Principais Mencionados
| Risco | Descrição | Exemplo Potencial |
|---|---|---|
| Desalinhamento | IA persegue metas sem considerar impactos humanos | Otimização extrema levando a extinção acidental |
| Controle Perdido | Autoaperfeiçoamento incontrolável | Corrida armamentista global em IA |
| Desigualdade | Benefícios concentrados em poucas empresas | Gigantes tech dominam economia mundial |
| Ética | Falta de regulamentação internacional | Armas autônomas sem supervisão humana |
Contexto Global e Reações Iniciais
A petição surge em meio a debates no G20 e ONU sobre regulação de IA, com a UE aprovando o AI Act em 2024. Nos EUA, Biden assinou ordem executiva em 2023 limitando chips para China. Críticos como Yann LeCun (Meta) chamam de "alarmismo", mas apoiadores veem urgência pós-incidentes como o ChatGPT.
A Future of Life Institute planeja ações em fóruns internacionais, buscando endossos governamentais. Até agora, nenhuma resposta oficial de empresas de IA, mas o debate reacende discussões sobre "alinhamento" de sistemas.
