Pacheco tenta segurar as rédeas da Inteligência Artificial

Uma proposta que está em pauta prevê a aplicação de uma multa de até R$ 50 milhões para cada violação cometida pelas empresas de tecnologia

Pacheco tenta segurar as rédeas da Inteligência Artificial - Imagem: Divulgação

Marina Roveda Publicado em 05/05/2023, às 08h11

Foi apresentado nesta quarta-feira (3) pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), um projeto que tem como objetivo regulamentar o uso de sistemas de inteligência artificial (IA) no Brasil, incluindo o ChatGPT. A proposta estabelece multas de até R$ 50 milhões para empresas de tecnologia que descumprirem as regras e as enquadra nas punições previstas pela Lei Geral de Proteção de Dados Pessoais (LGPD) de 2018. Além disso, as empresas não poderão se aproveitar da condição vulnerável de alguns tipos de consumidores, como crianças, adolescentes e pessoas com deficiência.

A iniciativa surge em meio a preocupações crescentes em países da União Europeia com relação à possibilidade de acesso indiscriminado a dados pessoais pelas chamadas big techs e à ausência de filtros para verificar a idade dos usuários. A Itália, por exemplo, chegou a bloquear o robô ChatGPT por suspeita de falta de proteção dos consumidores no tratamento de dados pessoais.

A proposta será submetida a uma comissão temática do Senado, que poderá ser a de Ciência, Tecnologia e Informática (CCT), ou a um colegiado a ser criado especificamente para discutir a matéria. Em seguida, passará por votação no plenário e, se aprovada, seguirá para análise da Câmara dos Deputados. Eduardo Gomes (PL-TO) é cotado para ser o relator no Senado.

Penalizações

De acordo com o texto, será criado um órgão vinculado à Presidência da República para acompanhar as atividades das empresas de tecnologia no Brasil e fiscalizar o cumprimento da lei. Essa agência terá como responsabilidade a elaboração e implementação da "Estratégia Brasileira de Inteligência Artificial".

Além disso, para que uma empresa possa operar no país, será necessário passar por uma avaliação. Serão analisados o impacto do algoritmo da plataforma, que identifica e direciona o usuário para suas preferências de produto ou conteúdo. O órgão governamental estabelecerá os casos em que será necessária uma auditoria para avaliar esse impacto, ou seja, a ida de um técnico externo à empresa para aferir os riscos da tecnologia.

O projeto também prevê que "todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco, previamente à sua colocação no mercado ou utilização em serviço".

O que o projeto proíbe:

As empresas que não respeitarem as regras, estarão sujeitas a:

inteligência artificial IA CENSUA IA QUEM CRIUOU O CHATGPT

Leia também