MUNDO

MUNDO -
Mais de 100 cientistas de todo o Mundo contra criação de armas biológicas com recurso a Inteligência Artificial

Share on facebook
Share on twitter

TÓPICOS

Share on facebook
Share on twitter

TÓPICOS

A inteligência artificial (IA) tem revolucionado a investigação em ciências biológicas, possibilitando, por exemplo, o design de novas proteínas, combater surtos de doenças infecciosas, curar doenças ou ajudar a mitigar as mudanças climáticas. No entanto, também apresentam grandes riscos, especialmente seu uso na criação de armas biológicas.

Por esse motivo, uma iniciativa lançada recentemente, assinada por mais de uma centena de cientistas de todo o mundo, pretende garantir o uso seguro e ético do design de proteínas com IA. Entre os signatários está Frances Arnold, do Instituto de Tecnologia da Califórnia (EUA), Prémio Nobel de Química em 2018 por ser uma das ‘mães’ da “evolução dirigida”, a criação de proteínas em laboratório com os mesmos princípios utilizados pela evolução natural.

A proposta responde a diversos relatórios do Congresso dos EUA e grupos de especialistas que temem a possibilidade de que essas ferramentas possam facilitar o desenvolvimento de novas toxinas ou vírus altamente transmissíveis que possam ser usados como armas biológicas. Uma delas, avança o ABC, é a AlphaFold, da DeepMind, empresa da Google, que previu com sucesso a estrutura de milhões de proteínas, quase todas conhecidas pela ciência. Modelos de linguagem semelhantes ao famoso ChatGPT, como o ESMFold, da Meta, também estão a trabalhar no mesmo sentido, capaz de desvendar 700 milhões de proteínas do mundo metagenómico, micróbios que habitam o solo, as profundezas do oceano e até mesmo os nossos intestinos.

A IA acelerou o design de proteínas, transformando esforços que antes levavam anos, em minutos, e quase tudo está disponível gratuitamente. Os signatários afirmam que os benefícios dessas tecnologias “superam em muito o potencial de dano, e gostaríamos de garantir que a nossa investigação continue a ser benéfica para todos no futuro”.

Para isso, exigem que a comunidade científica se auto-regule com um conjunto de valores e princípios que incluem segurança, transparência e colaboração internacional.

Os cientistas exigem também uma revisão periódica das capacidades das ferramentas de IA e monitorização as práticas de pesquisa e investigação neste âmbito.

[email protected]

Com Executive Digest

Share on facebook
Partilhe este artigo no Facebook
Share on twitter
Twitter
COMENTÁRIOS
OUTRAS NOTÍCIAS