Por muito tempo, Inteligência Artificial foi "coisa de filme". Mas esses filmes também traziam problemas e até destruição por causa da tecnologia. E para a OpenAI, isso também teria potencial de se tornar real.
A empresa responsável pelo ChatGPT anunciou que está formando uma equipe para evitar possíveis cenários apocalípticos causados pela atividade de modelos de IA.
O time "Preparação" ficará encarregado de avaliar possibilidades de catástrofes, como ameaças químicas e biológicas, nucleares e em cibersegurança.
"Rastrear, avaliar, prever e proteger"
Em um comunicado em seu site, a "mãe" das populares IA generativas ChatGPT e DALL-E anunciou que a equipe terá como objetivo “rastrear, avaliar, prever e proteger” contra possíveis riscos que a IA possa oferecer no futuro.
Conforme afirmou, os modelos de IA “de ponta” podem beneficiar toda a humanidade, mas também “representam riscos cada vez mais graves”, quando utilizadas por "agentes mal-intencionados". Uma tecnologia que pode ajudar a tantos poderia ser usada como uma forma de arma?
Recentemente, um estudo feito pela IBM X-Force, setor de segurança da empresa tecnologia, mostrou que o ChatGPT é capaz de criar e-mails convincentes simulando golpes de phishing em apenas cinco minutos. A OpenAI quer achar soluções para evitar problemas como esse e até outros bem maiores.
O que o time "Preparação" vai fazer?
Como o próprio nome já indica, a função do time é estudar e prever os possíveis grandes problemas que o mau uso da IA pode causar ao mundo. A ideia é também prever soluções para prevenir essas situações.
Para tanto, a equipe vai elaborar um relatório completo sobre os possíveis riscos, apresentar ações e soluções de proteção e uma estrutura de governança para responsabilizar os sistemas de IA.
Conforme explicou no comunicado, esse material vai busca responder perguntas como:
- Quão perigosos são os modelos de IA quando mal utilizados, tanto agora quanto no futuro?
- Como podemos construir uma estrutura robusta para monitoramento, avaliação, previsão e proteção contra as capacidades perigosas dos sistemas de IA de fronteira?
- Se os modelos de IA de ponta fossem roubados, como os agentes mal-intencionados poderiam aproveitá-los?
No site da OpenAI, há duas vagas abertas para o time de “Preparação”: pesquisador de ameaças à segurança nacional e Engenheiro de Pesquisa. As duas são em São Francisco, EUA, e os salários variam entre US$ 200 mil e US$ 370 mil por ano.
OpenAI não é a única preocupada
O rápido desenvolvimento das IAs foi acompanhado por uma crescente preocupação das empresas que as desenvolvem.
Nesta última semana, o Google ampliou o programa de recompensa por descobertas de vulnerabilidade para incluir pagamento pela identificação de riscos em sistemas de IA.
Em julho deste ano, Google, Open AI, Anthropic, Microsoft e outras gigantes do setor de tecnologia criaram um grupo de pesquisa dedicado a compreender os riscos e determinar boas práticas no desenvolvimento de plataformas IA.
SAIBA MAIS!
- Elon Musk quer X com funções de site de namoro e banco digital até 2024
- Polêmica no YouTube! Plataforma impede o uso de adblocks e revolta usuários
- ChatGPT cria e-mail com golpe assustadoramente convincente em minutos