Rio de Janeiro, 19 de Setembro de 2024

Musk e especialistas pedem que desenvolvimento de IAs seja suspenso

Arquivado em:
Quarta, 29 de Março de 2023 às 10:27, por: CdB

A proposta dos especialistas solicita uma interrupção generalizada de ao menos seis meses no treinamento de tais sistemas de IA, especialmente aqueles mais poderosos que o GPT-4.


Por Redação, com Canaltech - de São Francisco


Elon Musk, empresários e uma série de pesquisadores conhecidos no mundo da inteligência artificial assinaram uma carta aberta para pedir a interrupção do desenvolvimento de sistemas de grande escala. A motivação seria o temor de profundos impactos negativos para a sociedade mundial como um todo.




ia.jpg
Especialistas em IA publicaram uma carta aberta na qual pedem a interrupção do desenvolvimento de IAs até que se estabeleça regras e protocolos de segurança

A carta é fruto do trabalho do Instituto Future of Life, uma instituição sem fins lucrativos que luta para reduzir os riscos globais catastróficos e existenciais enfrentados pela humanidade. Segundo o material, laboratórios de IA estão presos em uma corrida "fora de controle" para ver quem desenvolve o sistema de aprendizagem de máquina mais avançado.


O problema disso seria que ninguém, nem mesmo seus criadores, poderia entender, prever ou controlar esses modelos de maneira confiável. Até mesmo Sam Altman, fundador da OpenAI, criadora do ChatGPT, já pediu às autoridades o estabelecimento de regras rígidas para o setor para evitar abusos e "IAs assustadoras".



Protocolos de segurança e auditoria sobre as IAs


A proposta dos especialistas solicita uma interrupção generalizada de ao menos seis meses no treinamento de tais sistemas de IA, especialmente aqueles mais poderosos que o GPT-4. "Essa pausa deve ser pública e verificável e incluir todos os atores-chave. Se tal pausa não puder ser decretada rapidamente, os governos devem intervir e instituir uma moratória", diz a carta.


Os pesquisadores concluem a carta com um pedido para empresas e especialistas independentes pensarem em protocolos de segurança compartilhados, com um design em comum e capacidade de realização de auditorias externas independentes. "Esses protocolos devem garantir que os sistemas que aderem a eles sejam seguros além de qualquer dúvida razoável", ressalta o material.


Além de Musk, estão entre os signatários o escritor Yuval Noah Harari, o cofundador da Apple Steve Wozniak, o cofundador do Skype Jaan Tallinn, o político estadunidense Andrew Yang e vários pesquisadores e CEOs de IA conhecidos, incluindo Stuart Russell, Yoshua Bengio, Gary Marcus e Emad Mostaque.



Qual o impacto da carta?


Por mais que apresente um propósito nobre, é improvável que a carta tenha qualquer impacto sobre a pesquisa de IA no mundo. Empresas gigantes como Google e Microsoft, que gastaram fortunas na criação de IA, não abandonariam os projetos no atual momento de ascensão. O Bard já começou a ser implementado em ferramentas como o Google Mensagens, enquanto o Bing Chat já chegou até mesmo ao Teams para otimizar tarefas básicas.


Mesmo assim, é interessante ver um movimento encabeçado por grandes estudiosos do setor que manifesta preocupação com as IAs de grande escala. Isso poderia acender uma luz amarela na mente de políticos e órgãos reguladores, que não parecem muito preocupados, ou não entendem a magnitude dos impactos, com o que esta tecnologia poderia causar.


Embora o ChatGPT e rivais tenham apenas a capacidade de escrever e criar conteúdos, há muitas outras IAs em desenvolvimento que podem ir além disso. Com os robôs cada vez mais presentes na vida das pessoas, as normas de segurança precisam acompanhar essa tendência para que não haja surpresas nada agradáveis no futuro.



Edições digital e impressa
 
 

Utilizamos cookies e outras tecnologias. Ao continuar navegando você concorda com nossa política de privacidade.

Concordo