Como garantir que a IA não será uma ameaça à humanidade?

Novo relatório apresentado por conferência global sugere três pilares para promover a tecnologia de forma segura

Um novo relatório apresentou sugestões discutidas em uma conferência global realizada em Cingapura, em abril, para tornar a inteligência artificial mais segura. Participaram representantes de empresas líderes, como OpenAIMetaGoogle DeepMind e Anthropic, além de líderes de 11 países, incluindo EUAChina e União Europeia.

O evento ‘Intercâmbio Científico Internacional sobre Segurança de IA’ sucedeu o Paris AI Action Summit, que terminou em fevereiro com uma divisão clara entre os participantes: EUA e Reino Unido se recusaram a assinar uma declaração conjunta para uma IA que seja “aberta, inclusiva, transparente, ética, segura, protegida e confiável”.

O resultado da nova conferência foi publicado no artigo chamado “Consenso de Cingapura sobre Prioridades Globais de Pesquisa em Segurança de IA”. O documento lista propostas de pesquisa para garantir que a tecnologia não se torne uma ameaça para a humanidade. 

Imagem feita com inteligência Artificial. Alessandro Di Lorenzo/Olhar Digital/DALL-E

Quais são as propostas?

Avaliando riscos: a sugestão principal é criar avaliações de riscos para determinar quando a intervenção é necessária, desenvolver técnicas para estudar impactos atuais e prever implicações futuras, e garantir métodos para testes e avaliação rigorosos de sistemas de IA.

Isso inclui testes de cenários com comportamentos perigosos, em que a tecnologia opera fora do controle humano, por exemplo. 

Impondo limites: especialistas sugerem a definição de limites entre comportamentos aceitáveis ​​e inaceitáveis, com a garantia de que os sistemas foram criados com sistemas e conjuntos de dados verdadeiros e honestos. 

Controle: os sistemas de IA deverão ser controlados por monitoramento, kill switches e IA não-agente servindo como proteção para sistemas ágeis, além de estruturas de supervisão centradas no ser humano.

Nações entrarão em consenso?

A próxima cúpula sobre segurança em IA será realizada na Índia, em 2026, e, até lá, o mercado deverá ser inundado por modelos de linguagem cada vez mais avançados. Apesar da forte concorrência, há quem acredite em um consenso entre nações e empresas.

Montagem de um rosto digital em azul
Especialistas sugerem a definição de limites entre comportamentos aceitáveis ​​e inaceitáveis de IA (Imagem: Yuichiro Chino/Shutterstock)

“Em uma era de fragmentação geopolítica, esta síntese abrangente de pesquisas de ponta sobre segurança de IA é um sinal promissor de que a comunidade global está se unindo com um compromisso compartilhado de moldar um futuro de IA mais seguro”, avalia Xue Lan, reitor da Universidade Tsinghua, que participou da conferência, em entrevista à Euronews

“OpenAI, Antropic e todas essas empresas enviaram pessoas para a conferência de Cingapura; elas querem compartilhar suas preocupações com a segurança e não precisam revelar seus segredos. Governos rivais também não querem explosões nucleares em países opostos, não é do interesse deles”, disse ele. 

Em fevereiro, o secretário-geral da ONU, António Guterres, afirmou que a tecnologia está colocando à prova os valores compartilhados da humanidade, e que o poder da inteligência artificial, atualmente concentrado nas mãos de poucas pessoas, envolve imensas responsabilidades.

OLHAR DIGITAL