Luís Henrique Acioly
Considerações sob o prisma da governança e accountability.

No horizonte da regulação de tecnologias, uma gama de desafios é posta ao processo normativo, especialmente quanto aos prismas de eficiência e legitimidade.  

Além do desafio de acompanhar o ritmo das inovações, há obstáculos quanto ao grau de intervenção nas fases de desenvolvimento e à desconexão regulatória, quando novas tecnologias tornam obsoletas as normas vigentes1.  

Nesse contexto, regulações fechadas, pautadas em uma lógica de comando e controle tem sua eficácia questionada, ao tempo que surgem novas formas de relacionamento entre o Estado e os agentes econômicos na dinâmica regulatória2.  

Abordagens de um mandato regulatório cooperativo têm surgido como forma de dotar o agente econômico de certa discricionaridade, mediante divisão de tarefas e designação de elementos de prestação de contas3. 

Essa dinâmica regulatória se materializa através de mecanismos de prestação de contas, a partir dos quais é possível apontar um comportamento necessário ao agente regulador, seja na formulação das políticas regulatórias, seja no enforcement em um esquema reação equivalente, em um panorama de regulação responsiva4. 

A seguir, apontam-se algumas considerações sobre a importância da AIA - Avaliação de Impacto Algorítmico na condução do processo regulatório de IA - Inteligência Artificial e sua pertinência no quadro de governança dos agentes que usam ou desenvolvem essa ferramenta. 

Avaliação de impacto algorítmico e sua primazia regulatória

No ecossistema da regulação e de governança de inteligência artificial, a cognição de riscos é um elemento estruturante das políticas regulatórias5, notadamente a partir de avaliações de impacto.  

Ademais, os impactos do uso de sistemas de IA em grupos historicamente vulnerabilizados têm demonstrado a necessidade de acompanhamento e estratificação dos riscos decorrentes do implemento crescente dessa tecnologia no cotidiano social6. 

Estruturas regulatórias em diversos sistemas normativos têm apontado instrumentos de prestação de contas no contexto do desenvolvimento e aplicação de sistemas de IA, dentre as quais se pode citar o Reino Unido e a Espanha, a partir da regulamentação específica da proteção de dados pessoais em tratamento automatizado de dados pessoais7, o Canadá, a partir da proposta normativa que consubstancia o "Artificial Intelligence and Data Act", e a União Europeia, no contexto da proposta do "Artificial Intelligence Act", que busca vincular seus Estados-membros.

A adoção de mecanismos de avaliação de impacto tem norteado sistemas regulatórios em diversas áreas, maiormente como pressuposto à concessão de permissão administrativa para pesquisa ou execução de projetos comerciais ou públicos8.

Uma avaliação de impacto é um processo específico para avaliar e documentar os impactos de um dado projeto ou empreendimento em determinadas áreas ou a partir de determinadas abordagens, e atribuir responsabilidades na mitigação desses impactos9. 

Nesse cenário, a Avaliação de Impacto Algorítmico ("Algorithmic Impact Assessment" ou "AIA") desponta, por sua função eminentemente relacional, como instrumento de prestação de contas e cognição e gestão de riscos envolvendo uso de IA.  

A AIA é considerada um instrumento mais amplo do que o RIPD - Relatório de Impacto à Proteção de Dados, na medida em que não se esgota nos aspectos inerentes aos dados pessoais, mas relaciona-se com a própria programação algorítmica e com o desenvolvimento do aprendizado de máquina10.  

A própria noção de política baseada em evidência aponta para sua importância. Reisman et al.11 sustentam quatro objetivos na inclusão da Avaliação de Impacto Algorítmico nas estruturas regulatórias:  

(i) respeitar o direito de a sociedade conhecer quais sistemas impactam em suas vidas, a partir da descrição pública dos sistemas de decisão automatizada que afetam significativamente indivíduos e coletividades; 

(ii) aumentar a expertise dos órgãos públicos na capacidade de avaliar sistemas construídos ou adquiridos pela administração pública, antecipando questões com potencial de gerar preocupações sociais; 

(iii) garantir uma maior responsabilidade dos sistemas de decisão automatizada, fornecendo uma oportunidade de auditores externos identificarem possíveis problemas e pontos de aprimoramento; e 

(iv) garantir que o público tenha a oportunidade significativa de responder e contestar o uso de um determinado sistema ou abordagem algorítmica para a autoridade competente.

A inclusão da AIA como ferramenta de gestão de riscos e levantamento de evidência direciona o processo de regulação para uma governança em que a responsabilidade pelo desenvolvimento de sistemas de IA é fomentada. A adoção desse processo avaliativo contínuo culmina em um reforço à accountability, especialmente quanto à obrigação de prestação de contas quanto às medidas de conformidade.

Estrutura de uma avaliação de impacto algorítmico, conforme PL 2.338

Na versão mais recente do PL 2.338, de 202312 - aprovado pelo Senado Federal e enviado à Câmara dos Deputados -, a Avaliação de Impacto Algorítmico é conceituada como: "análise do impacto sobre os direitos fundamentais, apresentando medidas preventivas, mitigadoras e de reversão dos impactos negativos, bem como medidas potencializadoras dos impactos positivos de um sistema de IA". 

O PL prevê que a AIA é obrigação do desenvolvedor ou aplicador de IA, sempre que o sistema apresentar alto risco, considerando cada o papel e a participação de cada agente na cadeia do manejo dessa ferramenta13.

Considera-se alto risco, aferível mediante regular processo de avaliação preliminar, um extenso rol de atividades específicas, descritas no art. 14 do PL. São hipóteses que, em tese, apontam para maiores impactos do uso de ferramentas de IA para o exercício de direitos fundamentais, com potencial implicação à vida humana. 

O desenvolvimento ou utilização de sistemas de IA para as finalidades ali delineadas não importa somente na obrigação de o agente elaborar Avaliação de Impacto Algorítmico, como também um conglomerado de medidas de governança que priorizam a accountability. 

O PL prevê que a AIA seja realizada de forma prévia à inserção em mercado da ferramenta e deve constituir um procedimento interativo contínuo14, para a constante supervisão da funcionalidade e dos efeitos que o sistema provoca para direitos fundamentais.  

Embora a versão atual do PL 2.338, de 2023 tenha deferido à autoridade reguladora competente (integrante do SIA - Sistema Nacional de Regulação e Governança de Inteligência Artificial) a prerrogativa de regular os elementos constitutivos da Avaliação de Impacto Algorítmico15, constitui boa prática que sua estrutura contenha ao menos:

(i) os riscos conhecidos e previsíveis à época da elaboração do sistema inteligente; 

(ii) os benefícios do uso desse sistema para as finalidades que se busca alcançar; 

(iii) a descrição do processo e dos resultados de testes técnicos para dimensionamento da funcionalidade do sistema;  

(iv) os possíveis efeitos adversos e a quantidade de pessoas possivelmente impactadas;  

(v) a probabilidade e impacto dos possíveis efeitos adversos, quantificados mediante matriz de risco;  

(vi) a lógica do funcionamento do sistema inteligente, observando-se a explicabilidade e ponderando-se o segredo comercial;  

(vii) os esforços de treinamento e ações de conscientização dos riscos associados ao sistema;  

(viii) as medidas de mitigação indicadas e a justificação do risco residual; e  

(ix) as medidas de transparência pública, especialmente quanto aos possíveis usuários desse sistema. 

Acerca desse último ponto, a minuta do PL prevê que as conclusões da Avaliação de Impacto Algorítmico sejam públicas, observado o segredo industrial e comercial16.  

Considerando o caráter interativo contínuo dessa avaliação, o que seria considerado "conclusão" da AIA em um determinado momento, pode ser apenas parte do processo em outra ocasião. Isso implica em uma supervisão e análise constante pelo agente de IA daquilo que deve ser publicizado ou não, de acordo com o estado do desenvolvimento da avaliação. 

Considerações finais

A Avaliação de Impacto Algorítmico desponta como instrumento de prestação de contas e alocação de responsabilidades, no contexto da regulação da IA a partir de uma estrutura de cognição, gestão e avaliação de consequências do uso de inteligência artificial.  

Isso contribui ainda mais para a ponderação de um comportamento regulatório responsivo, coerente com carga de risco demonstrada na avaliação. A governança de inteligência artificial vê na Avaliação de Impacto Algorítmico o coração de seu processo de conformidade, especialmente quanto à accountability. 

Muitos pontos ainda devem ser estruturados no processo legislativo do PL 2338 perante a Câmara dos Deputados e no contexto de regulamentação de diversas competências atribuídas ao SIA e estruturas que o compõem. Porém, o tratamento legal deferido na propositura legislativa contribui para que ele esteja em consonância com o próprio fim da política regulatória em inteligência artificial.

__________

1 MOSES, Lyria Bennett. How to Think About Law, Regulation and Technology: Problems with 'Technology' as a Regulatory Target. Law, Innovation and Technology, v. 5, n. 1, p. 1-20, 2013. 

2 BALDWIN, Robert; CAVE, Martin. Understanding Regulation: Theory, Strategy, and Practice. Oxford: Oxford University Press, 1999. 

3 BIONI, Bruno Ricardo. Regulação e Proteção de Dados Pessoais: O Princípio da Accountability. Rio de Janeiro: Forense, 2022. 

4 AYRES, Ian; BRAITHWAITE, John. Responsive Regulation: Transcending the Deregulation Debate. Oxford: Oxford University Press, 1992; ACIOLY, L. H. M. et al. Accountability in Brazilian Artificial Intelligence Regulation from the Algorithmic Impact Assessment. AIRe - Journal of AI Law and Regulation, v. 1, n. 1, p. 86-97, 2024. Disponível em: https://doi.org/10.21552/aire/2024/1/10. Acesso em: 02 jan. 2025. 

5 BAPTISTA, Patrícia; KELLER, Clara Iglesias. Por que, quando e como regular as novas tecnologias? Os desafios trazidos pelas inovações disruptivas. RDA - Revista de Direito Administrativo, Rio de Janeiro, v. 273, p. 123163, set./dez. 2016. 

6 ACIOLY, L. H. M. et al. Accountability in Brazilian Artificial Intelligence Regulation from the Algorithmic Impact Assessment. AIRe - Journal of AI Law and Regulation, v. 1, n. 1, p. 86-97, 2024. Disponível em: https://doi.org/10.21552/aire/2024/1/10. Acesso em: 02 jan. 2025. 

7 LEMOS, Alessandra et al. Avaliação de Impacto Algorítmico para a proteção dos direitos fundamentais: Relatório. Brasília: Laboratório de Políticas Públicas e Internet, 2023; ACIOLY, L. H. M. et al. Accountability in Brazilian Artificial Intelligence Regulation from the Algorithmic Impact Assessment. AIRe - Journal of AI Law and Regulation, v. 1, n. 1, p. 86-97, 2024. Disponível em: https://doi.org/10.21552/aire/2024/1/10. Acesso em: 02 jan. 2025. 

8 RAAB, Charles. Information privacy, impact assessment, and the place of ethics. In: Computer Law & Security Review, v. 37, jul. 2020, p. 1-16. Disponível em: https://doi.org/10.1016/j.clsr.2020.105404. Acesso em: 17 set. 2023. 

9 RAAB, Charles. Information privacy, impact assessment, and the place of ethics. In: Computer Law & Security Review, v. 37, jul. 2020, p. 1-16. Disponível em: https://doi.org/10.1016/j.clsr.2020.105404. Acesso em: 17 set. 2023. 

10 ACIOLY, L. H. M. et al. Accountability in Brazilian Artificial Intelligence Regulation from the Algorithmic Impact Assessment. AIRe - Journal of AI Law and Regulation, v. 1, n. 1, p. 86-97, 2024. Disponível em: https://doi.org/10.21552/aire/2024/1/10. Acesso em: 02 jan. 2025. 

11 REISMAN, Dillon; SCHULTZ, Jason; CRAWFORD, Kate; WHITTAKER, Meredith. Algorithmic Impact Assessment: a practical framework for public agency accountability. AI NOW, 2018. 

12 Disponível em: https://legis.senado.leg.br/sdleggetter/documento?dm=9884955&ts=1735605228057&disposition=inline. Acesso em: 28 jan.2025. 

13 Art. 25. A avaliação de impacto algorítmico de sistemas de IA é obrigação do desenvolvedor ou do aplicador que introduzir ou colocar sistema de IA em circulação no mercado, sempre que o sistema ou o seu uso forem de alto risco, considerando o papel e a participação do agente na cadeia. 

14 Art. 26. A avaliação de impacto algorítmico será realizada em momento anterior à introdução ou à colocação em circulação no mercado de sistema de IA, bem como consistirá em processo interativo contínuo, executado ao longo de todo o ciclo de vida dos sistemas de IA de alto risco, requeridas atualizações periódicas. 

15 Art. 25. (...). § 5º. A autoridade competente, a partir das diretrizes do Cria, estabelecerá critérios gerais e elementos para a elaboração de avaliação de impacto algorítmico e a periodicidade de sua atualização, considerando o ciclo de vida dos sistemas de IA de alto risco.  

16 Art. 28. As conclusões da avaliação de impacto algorítmico serão públicas, observados os segredos industrial e comercial, nos termos de regulamento. 

17 ACIOLY, L. H. M. et al. Accountability in Brazilian Artificial Intelligence Regulation from the Algorithmic Impact Assessment. AIRe - Journal of AI Law and Regulation, v. 1, n. 1, p. 86-97, 2024. Disponível em: https://doi.org/10.21552/aire/2024/1/10. Acesso em: 02 jan. 2025. 

18 AYRES, Ian; BRAITHWAITE, John. Responsive Regulation: Transcending the Deregulation Debate. Oxford: Oxford University Press, 1992. 

19 BALDWIN, Robert; CAVE, Martin. Understanding Regulation: Theory, Strategy, and Practice. Oxford: Oxford University Press, 1999. 

20 BAPTISTA, Patrícia; KELLER, Clara Iglesias. Por que, quando e como regular as novas tecnologias? Os desafios trazidos pelas inovações disruptivas. RDA - Revista de Direito Administrativo, Rio de Janeiro, v. 273, p. 123-163, set./dez. 2016. 

21 BIONI, Bruno Ricardo. Regulação e Proteção de Dados Pessoais: O Princípio da Accountability. Rio de Janeiro: Forense, 2022. 

22 LEMOS, Alessandra et al. Avaliação de Impacto Algorítmico para a proteção dos direitos fundamentais: Relatório. Brasília: Laboratório de Políticas Públicas e Internet, 2023. 

23 RAAB, Charles. Information privacy, impact assessment, and the place of ethics. Computer 

24 Law & Security Review, v. 37, jul. 2020, p. 1-16. Disponível em: https://doi.org/10.1016/j.clsr.2020.105404. Acesso em: 17 set. 2023. 

25 REISMAN, Dillon; SCHULTZ, Jason; CRAWFORD, Kate; WHITTAKER, Meredith. Algorithmic Impact Assessment: a practical framework for public agency accountability. AI NOW, 2018. 


Luís Henrique Acioly
Sócio e Coordenador da Área de Tecnologia e Governança do Chezzi Advogados, pós-graduando em Direito Digital pelo ITS-Rio e CEPED-UERJ.

MIGALHAS

https://www.migalhas.com.br/depeso/423830/avaliacao-impacto-algoritmico-e-regulacao-da-inteligencia-artificial


guias.png 

Dúvidas? Fale conosco whats.png

A FETRACONSPAR É FILIADA À:

A FETRACONSPAR NAS REDES SOCIAIS

@fetraconspar    /fetraconspar
/fetraconspar       /fetraconspar
                   87390.png @fetraconspar

banner denuncie aqui.jpg