O Parlamento Europeu aprovou nesta quarta-feira (13) a Lei da IA, ou AI Act, o primeiro conjunto de regras do mundo para regulamentar a inteligência artificial. A legislação foi aprovada por 523 votos a favor, 46 contra e 49 nulos.
A expectativa é que a lei europeia sirva como base para projetos de lei de mais países que estão trabalhando para mitigar os riscos da IA.
Como explica a CNBC, a legislação divide as ferramentas de IA entre categorias de risco - baixo, médio e alto - e também define tecnologias “inaceitáveis” que devem ser proibidas.
Com a aprovação, a lei deve entrar em vigor a partir de maio e deve ter sua implementação expandida para 2025.
Em dezembro, os legisladores chegaram a um acordo sobre o regulamento, garantindo direitos fundamentais da democracia e sustentabilidade ambiental. Na época, as autoridades reconheceram o potencial de ameaça das IAs aos direitos dos cidadãos, portanto, o parlamento votou pela proibição de:
-
Sistemas de categorização biométrica envolvendo características sensíveis, incluindo crenças políticas, religiosas, filosóficas, orientação sexual e raça;
-
Extração de imagens faciais da internet ou câmeras de vigilância para criar bancos de dados de reconhecimento facial;
-
Reconhecimento de emoções no local de trabalho e escolas;
-
Sistemas que manipulam o comportamento humano para contornar seu livre arbítrio e mais.
O Parlamento da UE também estabelece uma categoria para sistemas de IA de alto risco que, por exemplo, podem causar danos à saúde, segurança, meio ambiente, etc.
Alguns exemplos de IAs classificadas dessa forma são ferramentas que podem impactar setores bancários e de seguradoras, além de sistemas com capacidade de influenciar o comportamento de eleitores.
As autoridades ainda definiram que os cidadãos terão o direito de apresentar reclamações relacionadas a sistemas de IA e receber explicações sobre decisões baseadas nesses sistemas — especialmente quando essas decisões afetarem seus direitos.
O que a Lei da IA significa para os modelos de IA generativa?
Como destaca a AP News, em relação aos sistemas de IA generativa, como o ChatGPT e Gemini, a lei estabelece que os desenvolvedores dessas ferramentas disponibilizem um resumo detalhado sobre como são treinadas, incluindo textos, imagens, vídeos e outros dados da internet.
Além disso, geradores de imagem deverão rotular os conteúdos como manipulados artificialmente.
Para os modelos de IA mais poderosos atualmente, como o GPT-4 e Gemini, as empresas desenvolvedoras terão que realizar avaliações e procedimentos de mitigação de riscos, informar sobre incidentes envolvendo suas tecnologias, possíveis prejuízos a saúde (ou até mesmo morte), implementar medidas de cibersegurança e divulgar a quantidade de energia utilizada por seus modelos.
SAIBA MAIS!
- Uso de IA nos games pode resultar em nova greve dos atores
- Brasil é o 4º maior usuário do ChatGPT no mundo; confira top 10
- Cientistas assinam pacto que promove o uso responsável da IA na biologia