OpenAI está formando time para evitar apocalipse IA (e há vagas abertas)

Sabryna Esmeraldo
Sabryna Esmeraldo

Por muito tempo, Inteligência Artificial foi "coisa de filme". Mas esses filmes também traziam problemas e até destruição por causa da tecnologia. E para a OpenAI, isso também teria potencial de se tornar real.

A empresa responsável pelo ChatGPT anunciou que está formando uma equipe para evitar possíveis cenários apocalípticos causados pela atividade de modelos de IA.

O time "Preparação" ficará encarregado de avaliar possibilidades de catástrofes, como ameaças químicas e biológicas, nucleares e em cibersegurança.

"Rastrear, avaliar, prever e proteger"

Possíveis riscos do uso de IA (Imagem: Shutterstock / buffaloboy)

Em um comunicado em seu site, a "mãe" das populares IA generativas ChatGPT e DALL-E anunciou que a equipe terá como objetivo “rastrear, avaliar, prever e proteger” contra possíveis riscos que a IA possa oferecer no futuro.

Conforme afirmou, os modelos de IA “de ponta” podem beneficiar toda a humanidade, mas também “representam riscos cada vez mais graves”, quando utilizadas por "agentes mal-intencionados". Uma tecnologia que pode ajudar a tantos poderia ser usada como uma forma de arma?

Recentemente, um estudo feito pela IBM X-Force, setor de segurança da empresa tecnologia, mostrou que o ChatGPT é capaz de criar e-mails convincentes simulando golpes de phishing em apenas cinco minutos. A OpenAI quer achar soluções para evitar problemas como esse e até outros bem maiores.

O que o time "Preparação" vai fazer?

Vagas abertas para a equipe Preparação da OpenAI (Imagem: Captura de Tela / OpenAI)

Como o próprio nome já indica, a função do time é estudar e prever os possíveis grandes problemas que o mau uso da IA pode causar ao mundo. A ideia é também prever soluções para prevenir essas situações.

Para tanto, a equipe vai elaborar um relatório completo sobre os possíveis riscos, apresentar ações e soluções de proteção e uma estrutura de governança para responsabilizar os sistemas de IA.

Conforme explicou no comunicado, esse material vai busca responder perguntas como:

  • Quão perigosos são os modelos de IA quando mal utilizados, tanto agora quanto no futuro?
  • Como podemos construir uma estrutura robusta para monitoramento, avaliação, previsão e proteção contra as capacidades perigosas dos sistemas de IA de fronteira?
  • Se os modelos de IA de ponta fossem roubados, como os agentes mal-intencionados poderiam aproveitá-los?

No site da OpenAI, há duas vagas abertas para o time de “Preparação”: pesquisador de ameaças à segurança nacional e Engenheiro de Pesquisa. As duas são em São Francisco, EUA, e os salários variam entre US$ 200 mil e US$ 370 mil por ano.

OpenAI não é a única preocupada

O rápido desenvolvimento das IAs foi acompanhado por uma crescente preocupação das empresas que as desenvolvem.

Nesta última semana, o Google ampliou o programa de recompensa por descobertas de vulnerabilidade para incluir pagamento pela identificação de riscos em sistemas de IA.

Em julho deste ano, Google, Open AI, Anthropic, Microsoft e outras gigantes do setor de tecnologia criaram um grupo de pesquisa dedicado a compreender os riscos e determinar boas práticas no desenvolvimento de plataformas IA.

SAIBA MAIS!

  • Elon Musk quer X com funções de site de namoro e banco digital até 2024
  • Polêmica no YouTube! Plataforma impede o uso de adblocks e revolta usuários
  • ChatGPT cria e-mail com golpe assustadoramente convincente em minutos
Sabryna Esmeraldo
Sabryna Esmeraldo
Sabryna trabalha com comunicação há mais de dez anos e especializou-se a produzir conteúdos e tutoriais sobre aplicações e tecnologia. Consumidora ávida de streamings e redes sociais, adora descobrir as novidades deste mundo.
recomenda: