Escrito por José Danilo Debacker Damian[1]
O Projeto de Lei (PL) nº 2.338/2023, de autoria do senador Rodrigo Pacheco do PSD/MG, representa um marco histórico para as discussões ético-jurídicas brasileiras sobre IA, uma vez que se pretende como a lei que “[…] estabelece normas gerais de caráter nacional para a governança responsável de sistemas de inteligência artificial (IA) no Brasil […]” (Brasil, 2025). Tal pretensão surge em um cenário em que a sociedade se encontra cada vez mais imersa social, cultural e economicamente pela atuação de inteligências artificiais, tornando fundamental uma discussão crítica sobre essa tecnologia.
Portanto, de modo a contribuir com essa discussão, faz sentido analisar o que o PL estabelece a partir de uma perspectiva que retrata o desenvolvimento e aplicação de uma norma no âmbito específico das IAs que é trazida por Luciano Floridi em seu livro Ética da inteligência artificial. Trata-se aqui de expor como esta obra auxilia na compreensão de um documento tão importante quanto este para o Brasil contemporâneo.
Primeiramente, o que faz dessa discussão importante? IAs são algoritmos que permeiam a infoesfera, isto é, ambientes digitais e analógicos; nesse sentido, existem algoritmos dedicados a fins médicos, jurídicos, militares, de transporte público, etc. Elas não requerem que seu usuário as utilize conscientemente, como é o caso do algoritmo do Instagram, que não é utilizado deliberadamente por seus usuários para escolher os vídeos que assistem, mas sim pela Meta (antigo Facebook e, agora, empresa dona do Instagram, Whatsapp, Messenger, Threads e mais) para decidir quais são os vídeos com maior probabilidade de interação com o usuário. Sendo assim, a importância dessa discussão se dá na medida em que essas tecnologias estão envolvidas em processos decisórios extremamente relevantes em âmbitos que vão desde sua integridade física até a integridade psíquica da sociedade, como, por exemplo, receitar um remédio a um paciente, julgar algum caso, ou ainda, decidir se alguém representa alguma ameaça, portanto, decidindo por sua morte.
Isto posto, discutir quais as limitações e quais as direções serão atribuídas ao desenvolvimento destas tecnologias é crucial, visto que, como Floridi argumenta, tal discussão é o mais novo desafio da inovação digital: a discussão sobre a governança digital, isto é, “a prática de estabelecer e implementar políticas, procedimentos e padrões para o desenvolvimento, o uso e o gerenciamento adequados da infoesfera” (Floridi, 2024, p. 141).
Desta forma, o PL prevê que os sistemas de IA devem ser caracterizados através de seus riscos. Essa caracterização determina quais são os âmbitos em que o desenvolvimento, a implementação e o uso de IAs deve ser mais criteriosamente regulado e em que seus resultados devem ser mais prontamente avaliados, levando em consideração seu potencial danoso a pessoas e grupos em variados contextos. Ele estabelece que os agentes de IA — desenvolvedores e aplicadores de IAs — realizem uma avaliação preliminar, de modo que classifiquem os próprios sistemas como sendo de propósito geral, de alto risco ou de risco excessivo.
Sistemas de IA de propósito geral (SIAPG) são capazes de “realizar ampla variedade de tarefas distintas e servir diferentes finalidades, incluindo aquelas para as quais não foram especificamente desenvolvidos e treinados” (Brasil, 2025), pode-se pensar que um exemplo de uma SIAPG é o ChatGPT. SIAPGs são sistemas cuja descrição é mais ampla, uma vez que podem ser usados em uma miríade de funções diversas.
Sistemas de IA de alto risco operam em contextos em que as IA estariam relacionadas em tomadas de decisões, que, por sua vez, poderiam ocasionar impactos negativos para com pessoas físicas e/ou grupos de pessoas, seja fisicamente e/ou mentalmente, ou em caso de exploração. Exemplos de IAs de alto risco são: IAs para veículos autônomos, aplicações na área da saúde, estudos de crimes, segurança pública, entre outras.
Por último, sistemas de IA de risco excessivo seriam imediatamente vedados, sendo eles: sistemas com o propósito de levar uma pessoa ou grupo a causar danos a si ou a outrém, de explorar vulnerabilidades de uma pessoa ou grupo para o mesmo fim, de avaliar o risco de cometimento de crimes, de infrações e reincidências, sistemas de ranqueamento de pessoas naturais por parte do poder público, sistemas de armas autônomas e sistemas identificação biométrica ao vivo e em público — exceto em algumas hipóteses específicas.
De acordo com o PL, os agentes de IA privados ou públicos seriam responsáveis por encaminhar suas avaliações preliminares às autoridades competentes, que poderiam requisitar uma reclassificação do sistema caso constatasse uma avaliação preliminar fraudulenta ou quando determinassem necessária uma atualização da lista de IAs classificadas desta forma — tais processos para essa contestação e reclassificação ficam a cargo das autoridades competentes estabelecerem. Sendo, também, dever dos agentes de IA, estabelecer suas medidas de governança internas adotando requisitos mínimos a serem cumpridos pelos desenvolvedores e aplicadores de IAs de acordo com essa legislação e outros regulamentos apresentados pelas autoridades competentes. Além disso, o projeto estabelece que os agentes de IA podem formar associações para estabelecer códigos de boas práticas e de governança. E, por fim, agentes de IA podem associar-se para promover a autorregulação de sistemas de IA em contextos que demandam uma interpretação especial da lei, desde que associados como uma pessoa jurídica de direito privado sem fins lucrativos.
A forma de compreensão sobre IA apresentada pelo PL pode ser analisada através das lentes do que Floridi traz em seu livro em relação aos riscos relacionados às IAs e às medidas de governança para lidar com eles, visto que o autor aborda amplamente preocupações conceituais centrais para elaboração dos temas trazidos múltiplas vezes ao redor do PL.
Assim sendo, é preciso esclarecer que Floridi aborda diferentes momentos que os problemas relativos à IA surgem, dentre eles: no momento do próprio tratamento ético dado aos processos de desenvolvimento, implementação e uso de IAs, que fundamentam suas medidas de governança, e no momento da adaptação dos agentes de IA à legislação.
Em relação ao primeiro momento, nos últimos anos, afirma Floridi, as pesquisas sobre ética de IA circundaram, principalmente, três temas: equidade, prestação de contas e transparência. De acordo com o autor, esses temas surgem de 6 preocupações éticas principais: (1) evidências inconclusivas, (2) evidências incompreensíveis, (3) evidências equivocadas, (4) resultados não equitativos, (5) efeitos transformadores e (6) rastreabilidade. (1), (2) e (3) tratam-se de considerações epistêmicas e (4) e (5) de considerações normativas sobre as ações de IAs, enquanto (6) é uma preocupação que surge a partir das outras considerações na medida em que é necessário articulá-las.
As considerações epistêmicas abordam questões relativas à qualidade e à precisão dos dados utilizados pelas IAs, enquanto as questões normativas abordam questões relativas ao impacto ético das ações de IAs. A rastreabilidade, como dito, surge a partir da dificuldade de articular ambas as considerações anteriores em um processo que capacite a responsabilização moral. Para fins deste artigo, serão abordadas apenas as questões epistêmicas em virtude de que realizar uma abordagem ampla de todas elas vai além do que é possível neste texto. Contudo, tais considerações servem como boas ferramentas para articular sucessos e falhas presentes no PL, pois os termos com que essas questões são construídas são em muito semelhantes com aqueles utilizados pelo PL, tornando possível uma análise “lado a lado” entre esses dois textos.
As questões sobre provas inconclusivas trazidas por Floridi surgem devido “à maneira pela qual algoritmos de ML [machine learning] não determinísticos produzem resultados que são expressos em termos probabilísticos” (Floridi, 2024, p. 162), tais resultados, por sua vez, podem acabar por representar tanto relações inexistentes quanto por reproduzir vieses injustos. Isso significa que “os padrões identificados pelos algoritmos podem ser o resultado das propriedades inerentes ao sistema modelado pelos dados, dos conjuntos de dados […] ou da manipulação habilidosa do conjunto de dados (Floridi, 2024, p. 162). Sendo assim, tais algoritmos seriam capazes de atrapalhar a análise de múltiplos problemas (sociais por exemplo) ao focarem em indicadores não causais, ignorando suas causas subjacentes. Além disso, mesmo que foquem em problemas causais, os dados disponíveis servem de maneira a aplicar o resultado mais equitativo.
Outrossim, os resultados de tais algoritmos dependem substancialmente de como o processo de coleta de dados foi orientado. O PL estabelece que o desenvolvimento, implementação e uso de IAs deve seguir fundamentos e princípios que evitem a produção de vieses indesejados, entretanto suas medidas de governança se limitam a fazer uma descrição técnica dos parâmetros mínimos aos quais os desenvolvedores e aplicadores de IA devem cumprir. Visto que esse problema está para além de uma simples determinação regulativa e técnica, evidencia-se uma lacuna na legislação que, supostamente, há de ser cumprida por documentos posteriores provindos da autoridade competente.
Questões relativas às provas incompreensíveis referem-se à falta de transparência dos algoritmos. Quatro fatores contribuem para uma falta geral de transparência dos sistemas de IA: (1) impossibilidade de interpretação humana de grandes modelos algorítmicos e conjuntos de dados; (2) falta de ferramentas apropriadas para visualizar e rastrear grandes volumes de código e de dados; (3) códigos e dados mal estruturados e impossíveis de ler; e (4) atualizações contínuas e supervisão humana sobre o modelo que o alteram substancialmente (Floridi, 2024, p. 164). Esses fatores se articulam também com outras características da IA que acentuam o grau de dificuldade para lidar com eles, a saber, IAs podem alterar sua lógica de tomada de decisões com base em cada interação, configurando uma dificuldade para documentar e compreender cada uma das etapas que a levou a tomar uma decisão errônea, e IAs são maleáveis, ou seja, podem ser reprogramadas de forma dinâmica e contínua, o que torna sua ação instável e acarreta o problema anterior, além de demandar atenção contínua para verificação de padrões de ação indesejados. Ademais, tais questões de transparência adquirem uma dimensão ainda maior quando consideradas face ao fato de que são poucas as pessoas que possuem um letramento apropriado para compreender apropriadamente os mecanismos e operações envolvidos nesses processos, configurando outro problema decorrente de outra desigualdade social.
Assim sendo, em relação aos fatores colocados acima, é possível fazer a leitura do PL a partir de como ele lida com eles. IAs de alto risco, por exemplo, deveriam documentar adequadamente suas aplicações considerando todas as etapas relevantes no ciclo de vida do sistema, usar ferramentas para permitir a avaliação da acurácia e robustez dos resultados e apurar potenciais resultados discriminatórios ilícitos ou abusivos, além de documentar a realização de testes para avaliação de níveis apropriados de confiabilidade e segurança e documentar em formato adequado o grau de supervisão humana que tenha contribuído para os resultados apresentados pelos sistemas de IA. Assim sendo, o PL estabelece parâmetros de transparência mínimos para um sistema de IA. O primeiro fator é retratado na medida em que ele impõe que os agentes de IA produzam documentações apropriadas em conformidade com a lei. No que se refere ao segundo fator, é estabelecido que as autoridades competentes são responsáveis pela elaboração das ferramentas apropriadas de avaliação dos agentes e sistemas de IA. Referentemente ao terceiro fator, é determinado que o “grau de transparência, explicabilidade e auditabilidade do sistema de IA que dificulte significativamente o seu controle ou supervisão” (Brasil, 2025) é um dos critérios para caracterizar sistemas de IA como tendo potencial de alto risco. E, em relação ao quarto fator, as autoridades competentes deveriam estabelecer a periodicidade com que as avaliações de risco seriam realizadas pelos agentes de IA.
Finalmente, questões relativas a provas equivocadas dizem respeito a problemas que surgem na medida em que os desenvolvedores de sistemas de IA ignoram (conscientemente ou não) a complexidade social do mundo real ao programá-los (Floridi, 2024, p. 169), uma vez que eles podem incorrer em cinco armadilhas na falta de uma estrutura sociotécnica específica que contemple tal complexidade: (1) uma falha em modelar todo o sistema sobre o qual um critério social será aplicado, (2) uma falha em entender como a reutilização de soluções algorítmicas projetadas para um contexto social pode ser enganosa, imprecisa ou causar danos quando aplicada a um contexto diferente, (3) uma falha em explicar o significado completo dos conceitos sociais, (4) uma falha em entender como a inserção da tecnologia em um sistema social existente muda os comportamentos e os valores incorporados desse sistema e (5) uma falha em reconhecer a possibilidade que a melhor solução para um problema não envolva tecnologia (Floridi, 2024, p. 170). Em relação a isso, o PL estabelece que tem como fundamentos a igualdade, a não discriminação, a pluralidade, a diversidade e a proteção e promoção de direitos de grupos vulneráveis, e, como princípios, a justiça, a equidade e a inclusão.
Agora, sobre o segundo momento, Floridi aponta para cinco riscos principais provenientes da implementação de legislações contemporaneamente aos quais é preciso se atentar, tendo em vista a pretensão do PL: (1) o shopping da ética, (2) o bluewashing da ética, (3) o lobbying da ética, (4) o dumping da ética e (5) o shirking da ética. Tais problemas não são exclusivos das discussões sobre ética de IA, mas “cada um adquire características específicas por estar exclusivamente relacionado à ética da IA” (Floridi, 2024, p. 126).
(1) O shopping da ética se configura em um cenário onde, já em 2020, haviam mais de 160 princípios para éticas de IA articulados ao redor do mundo (Floridi, 2024, p. 115). Diante de tamanha “variedade”, agentes públicos e privados seriam capazes de “‘comprar’ o tipo de ética que melhor se adapta para justificar seus comportamentos atuais, em vez de revisá-los para torná-los consistentes com uma estrutura ética socialmente aceita” (Floridi, 2024, p. 128); (2) o bluewashing da ética se refere à atitude de fazer afirmações enganosas sobre valores e benefícios éticos decorrentes da utilização da IA, além de implementar medidas regulatórias meramente superficiais para se adequar a regulamentação vigente (Floridi, 2024, p. 130); (3) o lobbying da ética se dá quando empresas privadas se autorregulam e praticam lobby contra a introdução de normas legais ou a favor da diluição e enfraquecimento destas, além de, também, praticar uma conformação limitada a elas; (4) o dumping da ética é um problema provindo da globalização, em que empresas se utilizam de estruturas legais fracas para praticar pesquisas antiéticas; e (5) o shirking da ética se trata de uma não-prática, no sentido de que ele se dá na medida em que realizar “trabalho ético” em determinados contextos não se traduz em um retorno “considerável” para as empresas.
Nesse sentido, o PL se apresenta como uma ferramenta para lidar com alguns desses riscos, ainda que não os elimine completamente. A categorização proposta apresenta uma forma de evitar um shopping ético na medida em que estabelece um padrão nacional para análise judicial de casos em que sistemas de IA estão envolvidos. Simultaneamente, entretanto, ainda há margem para realização de bluewashing ético, ao passo que os agentes de IA possuem uma enorme autonomia em seus processos avaliativos, uma vez que todas as medidas de governança propostas por essa legislação devem ser garantidas por eles, sendo a responsabilidade das autoridade competentes exclusivamente de caráter regulatório e sancionatório, ou seja, elas devem lidar com os eventuais usos impróprios ou consequências indesejadas, mas não se envolver nos processos de desenvolvimento, implementação e uso dos sistemas de IA. O lobbying ético se apresenta pelo mesmo motivo que o bluewashing ético, pois, ainda que a autoridade competente seja responsável, por assim dizer, por policiar os agentes de IA, ela não é uma entidade homogênea, sendo composta por agentes públicos e privados, o que pode enviesar a análise de casos jurídicos em que agentes de IA estão envolvidos; mas, porque os agentes privados passam por um processo de acreditação estabelecido pelas autoridades competentes, esse risco, em teoria, é minimamente lidado. Por fim, o dumping e o shirking da ética poderão ser analisados mediante a aplicação deste PL, visto que se tratam de resultados de práticas realizadas para com regulações estabelecidas.
Por conseguinte, o PL demonstra um alto grau de conformidade com algumas das discussões éticas trazidas por Floridi, como este texto procurou explorar; ao mesmo tempo, ele deixa algumas lacunas: (1) visto que cabe às autoridades setoriais estabelecer os regulamentos que, realmente, orientarão os múltiplos sistemas de IA desenvolvidos no Brasil — pois elas construirão e estabelecerão os regulamentos contextualizando da lei — resta a pergunta se as autoridades setoriais serão devidamente construídas e mantidas ou se serão escanteadas e sucateadas pelo poder público; (2) na medida em que não está estabelecido que as autoridades competentes tenham de ser integradas por grupos de pesquisa dedicados à investigação dos problemas sociais possibilitados pelas IAs — o que, por assim dizer, mais chega perto, é o Conselho Permanente de Cooperação Regulatória de Inteligência Artificial (Cria), que seria o fórum permanente de colaboração com as autoridades setoriais e com a sociedade civil —, pode-se cair nas armadilhas colocadas em relação às provas equivocadas, uma vez que não prevê uma estrutura sociotécnica específica para contemplá-las; (3) dado que o PL também tem a pretensão de regular sobre atividades ilícitas por parte dos agentes e sistemas de IA, ele falha ao não apresentar exemplos concretos dessas atividades, como situações em que IAs são capazes de praticar crimes comerciais, tráfico, crimes sexuais, delitos contra pessoas e falsidade ideológica — potenciais estudados contemporaneamente pela literatura (Floridi, 2024, pp.195-209); e (4) visto que a legislação ainda não entrou em vigor, resta ao futuro dizer se os agentes de IA cumprirão suas determinações devidamente e se as autoridades competentes e os organismos acreditados serão capazes de exercê-la apropriadamente.
REFERÊNCIAS BIBLIOGRÁFICAS
FLORIDI, Luciano. Ética da inteligência artificial: princípios, desafios e oportunidades. Tradutora: Juliana Vermelho Martins. Curitiba: PUCPRESS, 2024.
BRASIL. Câmara dos Deputados. Projeto de Lei nº 2338, de 2023. Dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana. Brasília, DF: Câmara dos Deputados, 2025. Disponível em: https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2487262
[1] Graduando em licenciatura em filosofia pela Universidade Federal de Santa Catarina (UFSC), integrante do Grupo de Estudos de Filosofia da Arte (GEFA) e do corpo editorial da Revista Avant da mesma instituição.

