Preocupado com os potenciais riscos da inteligência artificial generativa, o Google anunciou uma expansão significativa de seu Programa de Recompensas por Vulnerabilidades (VRP), com foco em ataques específicos relacionados à IA. A empresa divulgou diretrizes atualizadas para delinear quais descobertas se qualificarão para recompensas e quais não estarão dentro do escopo do programa.
Por exemplo, uma descoberta que revele uma extração de dados de treinamento vazando informações privadas e confidenciais poderá ser elegível para uma recompensa, enquanto aquelas que envolvam apenas dados públicos e não confidenciais não se qualificarão.
No ano passado, o Google pagou aproximadamente US$12 milhões a pesquisadores de segurança por suas descobertas de bugs.
De olho na a segurança
A segurança em inteligência artificial é uma preocupação crescente, com desafios únicos apresentados por IA generativa, como a manipulação de modelos. Portanto, o Google acredita que a expansão do VRP incentivará a pesquisa em segurança de IA e ajudará a identificar possíveis vulnerabilidades, contribuindo para tornar a IA mais segura para todos.
Essa iniciativa do Google faz parte de um esforço mais amplo na comunidade de IA, e ocorre após reuniões realizadas na Casa Branca, nas quais empresas de IA, incluindo o Google, se comprometeram a aumentar a conscientização sobre questões de segurança na IA.
A expansão do VRP também precede uma ordem executiva abrangente, supostamente programada para 30 de outubro, que estabelecerá avaliações e requisitos rigorosos para modelos de IA antes de serem utilizados por agências governamentais, como parte dos esforços para garantir a segurança nessa área em crescimento.
SAIBA MAIS!
- Processador MediaTek Dimensity 9300 estabelece novo recorde no AnTuTu
- Pela primeira vez o RD Summit será em São Paulo; Saiba tudo aqui
- Space Perspective apresenta primeiro “spa espacial” do mundo (Veja interior)