Diário de São Paulo
Siga-nos

Pacheco tenta segurar as rédeas da Inteligência Artificial

Uma proposta que está em pauta prevê a aplicação de uma multa de até R$ 50 milhões para cada violação cometida pelas empresas de tecnologia

Pacheco tenta segurar as rédeas da Inteligência Artificial - Imagem: Divulgação
Pacheco tenta segurar as rédeas da Inteligência Artificial - Imagem: Divulgação

Marina Roveda Publicado em 05/05/2023, às 08h11


Foi apresentado nesta quarta-feira (3) pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), um projeto que tem como objetivo regulamentar o uso de sistemas de inteligência artificial (IA) no Brasil, incluindo o ChatGPT. A proposta estabelece multas de até R$ 50 milhões para empresas de tecnologia que descumprirem as regras e as enquadra nas punições previstas pela Lei Geral de Proteção de Dados Pessoais(LGPD) de 2018. Além disso, as empresas não poderão se aproveitar da condição vulnerável de alguns tipos de consumidores, como crianças, adolescentes e pessoas com deficiência.

A iniciativa surge em meio a preocupações crescentes em países da União Europeia com relação à possibilidade de acesso indiscriminado a dados pessoais pelas chamadas big techs e à ausência de filtros para verificar a idade dos usuários. A Itália, por exemplo, chegou a bloquear o robô ChatGPT por suspeita de falta de proteção dos consumidores no tratamento de dados pessoais.

A proposta será submetida a uma comissão temática do Senado, que poderá ser a de Ciência, Tecnologia e Informática (CCT), ou a um colegiado a ser criado especificamente para discutir a matéria. Em seguida, passará por votação no plenário e, se aprovada, seguirá para análise da Câmara dos Deputados. Eduardo Gomes (PL-TO) é cotado para ser o relator no Senado.

Penalizações

De acordo com o texto, será criado um órgão vinculado à Presidência da República para acompanhar as atividades das empresas de tecnologia no Brasile fiscalizar o cumprimento da lei. Essa agência terá como responsabilidade a elaboração e implementação da "Estratégia Brasileira de Inteligência Artificial".

Além disso, para que uma empresa possa operar no país, será necessário passar por uma avaliação. Serão analisados o impacto do algoritmo da plataforma, que identifica e direciona o usuário para suas preferências de produto ou conteúdo. O órgão governamental estabelecerá os casos em que será necessária uma auditoria para avaliar esse impacto, ou seja, a ida de um técnico externo à empresa para aferir os riscos da tecnologia.

O projeto também prevê que "todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco, previamente à sua colocação no mercado ou utilização em serviço".

O que o projeto proíbe:

  • plataformas de utilizarem técnicas para induzir os usuários a prejudicar a própria saúde ou segurança- por mensagens subliminares, por exemplo;
  • empresas de explorar alguma vulnerabilidade dos consumidores, como deficientes e idosos, a convencer esse público a agir contra a própria saúde;
  • o governo de avaliar, pelo comportamento dos usuários na rede social, pessoas que terão direito ou não a políticas públicas, programas sociais.

As empresas que não respeitarem as regras, estarão sujeitas a:

  • multa equivalente a 2% do faturamento da empresa no ano anterior, com o limite de R$ 50 milhões para cada infração;
  • proibição de participar por cinco anos de projetos experimentais de inovação, chamados de "sandbox regulatório";
  • suspensão das atividades da empresa, do desenvolvimento e operação da ferramenta de inteligência artificial;
  • proibição de tratamento de determinadas bases de dados.
Compartilhe  

últimas notícias