Rio de Janeiro, 25 de Setembro de 2024

Inteligência artificial pode fugir do controle, cientistas estão preocupados

Arquivado em:
Segunda, 23 de Setembro de 2024 às 12:57, por: CdB

Cientistas afirmam que, à medida que a tecnologia de IA avança rapidamente, qualquer erro ou uso indevido pode trazer graves consequências para a raça humana.

Por Redação, com OESP – de Nova York

Os principais cientistas de IA do mundo estão pedindo aos governos mundiais que trabalhem juntos para regulamentar a tecnologia antes que seja tarde demais.

inteligencia-1.jpg
Os principais cientistas de IA do mundo estão pedindo aos governos mundiais que trabalhem juntos para regulamentar a tecnologia

Três ganhadores do Prêmio Turing, basicamente o Prêmio Nobel de ciência da computação, que ajudaram a liderar a pesquisa e o desenvolvimento da IA, juntaram-se a uma dúzia de cientistas importantes de todo o mundo para assinar uma carta aberta que pedia a criação de melhores salvaguardas para o avanço da IA.

Os cientistas afirmaram que, à medida que a tecnologia de IA avança rapidamente, qualquer erro ou uso indevido pode trazer graves consequências para a raça humana.

“A perda do controle humano ou o uso malicioso desses sistemas de IA pode levar a resultados catastróficos para toda a humanidade”, escreveram os cientistas na carta. Eles também alertaram que, com o ritmo acelerado do desenvolvimento da IA, esses “resultados catastróficos” poderiam ocorrer a qualquer momento.

Os cientistas descreveram as seguintes etapas para começar a lidar imediatamente com o risco do uso malicioso da IA:

Órgãos governamentais de segurança de IA

Os governos precisam colaborar com as precauções de segurança da IA. Algumas das ideias dos cientistas incluem incentivar os países a desenvolver autoridades específicas de IA que respondam a “incidentes” e riscos de IA dentro de suas fronteiras. O ideal seria que essas autoridades cooperassem entre si e, a longo prazo, fosse criado um novo órgão internacional para impedir o desenvolvimento de modelos de IA que representem riscos para o mundo.

“Esse órgão garantiria que os estados adotassem e implementassem um conjunto mínimo de medidas eficazes de preparação para a segurança, incluindo registro de modelos, divulgação e armadilhas”, diz a carta.

Compromissos de segurança de IA do desenvolvedor

Outra ideia é exigir que os desenvolvedores tenham a intenção de garantir a segurança de seus modelos, prometendo que não ultrapassarão os limites. Os desenvolvedores se comprometeriam a não criar IA “que possa replicar, melhorar, buscar poder ou enganar seus criadores de forma autônoma, ou que permita a construção de armas de destruição em massa e a realização de ataques cibernéticos”, conforme estabelecido em uma declaração dos principais cientistas durante uma reunião em Pequim no ano passado.

Pesquisa independente e verificações tecnológicas sobre IA

Outra proposta é a criação de uma série de fundos globais de segurança e verificação de IA, financiados por governos, filantropos e empresas que patrocinariam pesquisas independentes para ajudar a desenvolver melhores verificações tecnológicas de IA.

Entre os especialistas que imploraram aos governos que agissem em relação à segurança da IA estavam três ganhadores do prêmio Turing, incluindo Andrew Yao, mentor de alguns dos empreendedores de tecnologia mais bem-sucedidos da China, Yoshua Bengio, um dos cientistas da computação mais citados do mundo, e Geoffrey Hinton, que ensinou o cofundador e ex-cientista-chefe da OpenAI, Ilya Sutskever, e que passou uma década trabalhando com aprendizado de máquina no Google.

Cooperação e ética em IA

Na carta, os cientistas elogiaram a cooperação internacional já existente sobre IA, como a reunião de maio entre os líderes dos EUA e da China em Genebra para discutir os riscos da IA. No entanto, eles disseram que é preciso mais cooperação.

O desenvolvimento da IA deve vir acompanhado de normas éticas para engenheiros, semelhantes às que se aplicam a médicos ou advogados, argumentam os cientistas. Os governos devem pensar na IA menos como uma nova e empolgante tecnologia e mais como um bem público global.

“Coletivamente, devemos nos preparar para evitar os riscos catastróficos que podem surgir a qualquer momento”, diz a carta.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial.

Edições digital e impressa
 
 

Utilizamos cookies e outras tecnologias. Ao continuar navegando você concorda com nossa política de privacidade.

Concordo