Projeto de lei sobre IA deixa sociedade civil de fora

Projeto de lei sobre IA pode permitir armas autônomas e reconhecimento facial

A tramitação ocorre no Senado e texto é considerado por especialistas que conversaram com o Núcleo como mais permissivo com tecnologias invasivas de privacidade, embora tenha sido elogiado pelo setor privado.
Projeto de lei sobre IA pode permitir armas autônomas e reconhecimento facial
Arte por Rodolfo Almeida
Receba nossas newsletters de graça
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!

A iniciativa mais avançada no Congresso sobre regulação de inteligência artificial têm causado preocupações em especialistas, acadêmicos e pesquisadores do setor por não prever a inclusão da participação da sociedade civil nos órgãos de fiscalização e controle, além de ter um texto permissivo sobre tecnologias de alto risco, como o reconhecimento facial.

A tramitação ocorre no Senado, sob a Comissão Temporária Interna sobre Inteligência Artificial. Com relatoria do senador Eduardo Gomes (PL-TO), o texto mais recente é considerado por pesquisadores e especialistas que conversaram com o Núcleo como mais permissivo com tecnologias invasivas de privacidade, embora tenha sido elogiado pelo setor privado.

Após a análise e eventual aprovação do projeto pela CTIA, o projeto será votado no plenário do Senado e, se aprovado, será encaminhado para a Câmara dos Deputados. Em abr.2024, Gomes disse ter a intenção de que o projeto seja aprovado em todas as instâncias legislativas e assinado pelo presidente Lula até o final do ano.


É importante porque...

O texto propõe fiscalização sem envolvimento da sociedade civil, ao mesmo tempo que permite amplas exceções para o uso de armas autônomas com controle humano e reconhecimento facial em locais públicos.


Responsabilidade e governança

O texto mais atual propõe o estabelecimento do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), encarregado de criar normas para a regulamentação da lei.

Isso inclui procedimentos ligados aos direitos das pessoas, requisitos para avaliação de impacto de algoritmos, informações sobre a utilização de sistemas de IA e protocolos para a certificação de desenvolvimento e utilização de tecnologias de alto risco.

Os integrantes formais do sistema serão:

  • A autoridade competente: designada pelo Poder Executivo, é o órgão de coordenação do SIA.
  • Órgãos e entidades estatais reguladores de regulação setorial e de IA, junto ao Conselho Administrativo de Defesa Econômica (Cade).
  • As entidades de autorregulação: organizações que estabelecem padrões e regulamentos para seus membros sem a necessidade de intervenção do governo.

Essa autoridade competente ainda não foi definida. Embora haja suspeitas de que a autoridade competente possa ser a Agência Nacional de Proteção de Dados (ANPD) ou a Agência Nacional de Telecomunicações (Anatel).

A decisão de não incluir uma agência própria para o SIA, mas sim um órgão regulador já existente, é atribuída à falta de recursos do governo, segundo especialistas que conversaram com a reportagem.

Sem sociedade civil

A ausência de representação da sociedade civil no SIA proposto é uma preocupação destacada por especialistas, apontou Rafael Zanatta, co-diretor da Data Privacy Brasil.

Enquanto o projeto inclui agentes estatais e entidades de autorregulação, ele negligencia organizações civis de defesa dos direitos do consumidor, o que é considerado uma falha significativa no desenho institucional.

Zanatta comparou o projeto com outros sistemas nacionais que incluem representantes da sociedade civil, como os de recursos hídricos, evidenciando a ausência como problemática.

O pesquisador também destacou que o projeto começa com uma ênfase nos agentes, como empresas, em vez de priorizar os direitos das pessoas naturais, indo de encontro à legislação europeia que enfatiza os direitos fundamentais das pessoas.

Eles tiveram que lidar com os recursos disponíveis, e ao tentar reunir e trabalhar com esses recursos, acabaram negligenciando o sistema na área de defesa do consumidor.
Rafael Zanatta, co-diretor da DataPrivacy Brasil

Posicionamento do setor comercial pede que relator considere leis já existentes que possam ser aplicadas à IA

Na sexta-feira (10 de maio), 25 entidades empresariais do setor de tecnologia brasileiro, lideradas pela Associação Brasileira de Inteligência Artificial (Abria), publicaram uma carta aberta com quatro sugestões para o projeto em questão:

  • Valorizar o ordenamento jurídico existente e priorizar regras já aplicáveis à tecnologia.
  • Colaborar com o Poder Executivo para promover a cooperação entre os reguladores que já têm competência para definir normas sobre o uso de IA, incluindo a Anatel, a ANPD, o Banco Central do Brasil (BCB) e a Secretaria Nacional do Consumidor (SENACON).
  • Reconhecer a necessidade de espaços multissetoriais para aconselhamento e avaliação de propostas de novas normas a serem integradas nas regulações setoriais relevantes para abordar potenciais riscos emergentes decorrentes do uso de IA.
  • Realizar análise de impacto regulatório multissetorial antes da votação de quaisquer propostas legislativas gerais e prescritivas sobre IA.
Senado toma dianteira em regulação de inteligência artificial
Senado tem liderado conversas mais maduras até o momento, mas Brasil ainda tem longo caminho até uma regulação final

Sistemas de alto risco

Antes da introdução no mercado ou do uso de novos sistemas de inteligência artificial, será necessária uma avaliação preliminar para determinar o grau de risco desses sistemas, que será coordenada pelo SIA.

Entre sistemas vedados por serem de alto risco, estão aqueles que:

  • Tenham técnicas subliminares que induzam o usuário a se comportar de forma prejudicial ou tragam risco à saúde ou segurança própria ou de terceiros;
  • Façam a exploração de vulnerabilidades dos usuários;
  • Ranqueiem pessoas com base no comportamento social ou atributos de sua personalidade;
  • Participem da produção, disseminação ou criação de material que caracterize abuso ou exploração sexual infantil.
Ajude o Núcleo a fazer reportagens relevantes e continuar gratuito para todos. Custa apenas R$10.

Quem define o risco

Para os casos de classificação de alto risco, a proposta exige que as empresas forneçam avaliações preliminares do sistema e os impactos que o algoritmo em desenvolvimento terá quando estiver em funcionamento.

Esses dados serão avaliados por profissionais independentes, não ligados ao Executivo, mas a decisão final será do SIA.

Os critérios da entidade serão:

  • Possíveis impactos negativos, especialmente em grupos vulneráveis;
  • Baixo grau de transparência;
  • Alto potencial de identificação de indivíduos;
  • Implementação em larga escala considerando pessoas afetadas e extensão geográfica;
  • Sistemas que representem danos à saúde e integridade física;
  • Tecnologias que possam impactar o processo democrático, como a disseminação de fake news e discursos de ódio.

Qualquer classificação será precedida de consulta pública, permitindo que as empresas solicitem reclassificação caso discordem da análise do SIA.

👎
FICOU DE FORA
Algo não classificado como de alto risco no projeto são as pontuações de crédito bancário, ou score de crédito, elaboradas por empresas como o Serasa. O Idec, em nota técnica, solicitou uma alteração que incluísse referências específicas ao score de crédito como sistema de IA de alto risco, argumentando que esses algoritmos são frequentemente discriminatórios e perpetuam vieses socialmente estabelecidos.

Armamentos de IA

Embora os sistemas de armas autônomas (SAA) e as ferramentas de identificação biométrica, como o reconhecimento facial, sejam considerados de alto risco para a sociedade, o texto permite seu uso por meio de exceções.

Começando pela biometria, seu uso é proibido em locais públicos, a não ser por quatro exceções:

  1. Quando houver inquérito ou processo criminal e a prova não puder ser feita de outro modo, mediante autorização judicial prévia;
  2. Para buscar vítimas, pessoas desaparecidas ou em circunstâncias que envolvam risco iminente à vida de pessoas;
  3. Investigação e repressão dos flagrantes delitos, nos casos de crimes com pena máxima de reclusão maior que dois anos;
  4. Para recapturar réus foragidos, cumprir mandados de prisão e medidas de restrição.

"Estas exceções, por demandarem funcionalidade técnica e operacional contínua, precisam estar operacionais o tempo todo", destacou André Fernandes, fundador do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec).

A organização, juntamente com outras entidades, está em uma campanha para banir o reconhecimento facial no país. "Ele vai estar detectando tudo e vai ser um sistema de vigilância e reconhecimento facial como a gente não quer que seja."

Paula Guedes, advogada e pesquisadora de Direito e Tecnologia do Legalite PUC-Rio, destacou que no texto proposto por Pacheco, os sistemas de identificação biométrica estavam proibidos, sendo permitidos apenas por lei federal.

Questionada pelo Núcleo sobre se houve algum tipo de lobby para inserção das ressalvas, ela sugeriu que pode ter havido pressão de diversos setores da segurança pública, que "acreditam que a tecnologia resolverá problemas que não são resolvidos por questões tecnológicas", embora não tenha confirmação de empresas ou órgãos específicos relacionados.

Quanto às armas autônomas, ou SAA, o texto as proíbe quando operam sem controle humano significativo, têm efeitos imprevisíveis ou violam o direito internacional.

⚠️
Importante: o texto preliminar isenta a aplicação da lei, caso aprovada, para sistemas de IA desenvolvidos para fins de defesa nacional, sem definir claramente esse conceito.

O problema técnico está no fato de que, em geral, esses sistemas demandam algum nível de supervisão humana. Como explicado pelo Comitê Internacional da Cruz Vermelha, existem atualmente três categorias gerais de autonomia, onde a distinção fundamental entre elas reside no que os sistemas podem fazer após identificar ou selecionar um alvo:

  1. Existem sistemas que requerem confirmação humana antes de qualquer ação ser tomada
  2. Aqueles em que a ação é realizada automaticamente, a menos que haja intervenção e interrupção humana
  3. E os que não necessitam de intervenção humana e apenas comunicam um relatório final de suas atividades aos humanos.

Pablo Nunes, coordenador do Centro de Estudos de Segurança e Cidadania (CESeC) e do Panóptico, um monitor do reconhecimento facial no Brasil, ressaltou que a regulação das armas autônomas atrai muita preocupação, especialmente porque essas armas são amplamente utilizadas pelas forças armadas para fins de defesa nacional.

Ele destacou o interesse do mercado em promover essa agenda no legislativo, mencionando que nas grandes feiras de tecnologia para segurança pública realizadas em São Paulo e no Rio de Janeiro todos os anos, há estandes apresentando drones com fuzis e outras armas que usam reconhecimento facial.

Discriminação

Em uma versão anterior do PL2338/23, previa-se o tratamento justo de pessoas afetadas por inteligência artificial, proibindo a implementação e uso desses sistemas que pudessem causar discriminação direta, indireta, ilegal ou abusiva.

Isso incluía considerações sobre dados pessoais sensíveis ou características como origem geográfica, raça, cor, etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas.

A versão anterior também vedava sistemas que colocassem pessoas pertencentes a grupos específicos em situações de vulnerabilidade, mesmo que critérios aparentemente neutros fossem aplicados. No entanto, o texto atual não contempla um direito específico à não discriminação nem à correção de vieses.

Em análise, o Instituto de Defesa do Consumidor (Idec) pediu que as contribuições mencionadas anteriormente fossem reintegradas ao projeto e ressaltou que, caso a correção de vieses não seja viável, o sistema de IA deve ser descontinuado.

PENALIDADES. Aqueles que violarem a lei podem enfrentar até seis tipos de penalidades, aplicadas pela autoridade competente. Esta autoridade definirá posteriormente seu próprio regulamento e os procedimentos para aplicação dessas sanções, os quais serão submetidos a consulta pública.

No texto preliminar de Gomes, não há prazo estipulado para a criação desse arcabouço burocrático.

Possíveis penalidades incluem:

  • Advertência ou obrigação de publicização da infração;
  • Proibição ou restrição de participação nos chamados sandboxes (ambientes experimentais) regulatórios , suspensão parcial ou total (temporária ou definitiva) do desenvolvimento ou operação do sistema de IA, ou proibição de tratamento de determinadas bases de dados;
  • Multa de até R$50 milhões ou até 2% do faturamento da empresa no Brasil, aplicada somente em caso de lesão irreparável ou de difícil reparação, ou se outra sanção comprometer o resultado final do processo.

Essas sanções serão aplicadas após um procedimento administrativo que analisará os casos individualmente, considerando critérios como boa-fé, vantagem obtida, condição econômica, histórico de reincidência, extensão do dano e cooperação.

TRANSPARÊNCIA. O SIA também será responsável por manter e atualizar uma base de dados sobre as IAs de alto risco, acessível ao público, contendo os documentos de avaliações de impacto, respeitando segredos comerciais e industriais.

AUTORREGULAÇÃO. A proposta prevê que empresas se associem em uma agência privada para autorregulação do setor de inteligência artificial no Brasil. Essa associação poderia estabelecer critérios técnicos dos sistemas para questões como:

  • Compartilhamento de experiências sobre o uso da IA;
  • Definição contextual de estruturas de governança previstas na lei;
  • Atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar;
  • Canal de recebimento de informações relevantes sobre riscos do uso de IA por associados da agência ou qualquer interessado.

SAIBA MAIS — TCU diz que regular IA no país poderá prejudicar setor privado

O TCU enviou à CTIA um documento analisando como a regulação da IA poderia afetar a implementação da Estratégia Brasileira de Inteligência Artificial (Ebia). Segundo o TCU, essa regulação pode tanto comprometer os objetivos da estratégia, exigindo uma reformulação significativa, quanto impulsionar a inovação e o desenvolvimento da IA responsável.

No documento, o TCU identifica nove potenciais riscos:

  • Dependência de importação da IA por “estagnação do desenvolvimento” da tecnologia no país
  • Criação de barreiras para startups e empresas de pequeno porte
  • Perda de competitividade dos produtos e serviços brasileiros no comércio internacional
  • Monopólio ou oligopólio ocasionado por regulação excessiva
  • Dificuldades na retenção de profissionais de IA
  • Definições genéricas impactando áreas desconexas e setores de baixa complexidade ou relevância
  • Limitação da capacidade de inovação nos setores público e privado
  • Impedimento ao desenvolvimento da IA por conta de direitos autorais
  • Barreiras para o uso da IA pelo Estado

Além dos riscos mapeados, o TCU sugere algumas recomendações, incluindo a definição da ANPD como órgão fiscalizador do SIA.

As outras sugestões são:

  • Estruturação do setor regulatório para responder às mudanças rápidas no ambiente
  • Adoção de uma regulação ágil e iterativa, para os órgãos estarem prontos para se adaptar Às necessidades e aos riscos da IA
  • Incentivo estatal à inovação responsável
  • Monitoramento e gestão de riscos pelos órgãos e entidades fiscalizadoras, como o SIA
  • Separação entre fomento e regulação

O TCU aponta que o PL 2338/23, inspirado em propostas da União Europeia, carece de resiliência diante das mudanças tecnológicas. O texto europeu inclui emendas cruciais, como exceções para pesquisa científica e incentivos ao desenvolvimento de aplicações socialmente benéficas, ausentes na proposta brasileira.

O que disse o relator

Questionado pelo Núcleo sobre o processo que levou à inclusão da permissão para armas autônomas com controle humano, principal ponto de crítica entre os especialistas ouvidos pela reportagem, a assessoria do senador Gomes respondeu por mensagem:

“O processo do senador foi ouvir exaustivamente a participação de entidades, empresas, organizações da sociedade, especialistas, pessoas interessadas no tema, senadores, juristas, em dezenas de audiências públicas para dotar o Brasil de uma legislação que discipline minimamente um novo mundo que se apresenta com o advento da Inteligência Artificial. E a partir disso usar toda sua vivência, experiência e conhecimento do processo legislativo, para fechar um texto que inicie o processo de regulamentação, sem tolher o desenvolvimento da tecnologia e que não deixe o Brasil a reboque de outros países.”
Senador Eduardo Gomes (PL-TO)
Reportagem Sofia Schurig
Arte Rodolfo Almeida
Edição Sérgio Spagnuolo

Receba nossas newsletters e traga felicidade para sua vida.

Não perca nada: você vai receber as newsletters Garimpo (memes e atualidades), Polígono (curadoria de ciência nas redes sociais) e Prensadão (resumo semanal de tudo o que o Núcleo fez). É fácil de receber e fácil de gerenciar!
Show de bola! Verifique sua caixa de entrada e clique no link para confirmar sua inscrição.
Erro! Por favor, insira um endereço de email válido!