Por: Jennyfer Fonseca e Lucas Igor
Em abril de 2020, o jornalista e videomaker Bruno Sartori publicou um vídeo no qual se utiliza a imagem do ex-Ministro da Justiça, Sergio Moro, e também da figura — igualmente transfigurada — do Presidente Jair Bolsonaro, reproduzindo uma celebrada discussão ocorrida no reality show “Big Brother Brasil”, a partir de técnicas de inteligência artificial.
De acordo com Sartori, o vídeo contabilizou quatro milhões de visualizações em suas redes sociais, recebendo grande notoriedade após ser publicado no contexto do pedido de exoneração de Moro. Essas montagens, cada vez mais populares, são as chamadas deepfakes: substituição de rostos com auxílio de inteligência artificial, muitas vezes criando cenários absurdos, mas bem-humorados.
Segundo o correspondente da revista Consultor Jurídico nos Estados Unidos, João Ozorio de Melo, deepfake é uma fusão das palavras deep learning, aprendizagem profunda, e fake, fraudulento ou falsificado, sendo esses termos correspondentes a “vídeos e áudios fraudulentos de maneira mais astuta”[1].
O uso de deepfakes pode acarretar a violação de direitos fundamentais, com destaque ao direito à privacidade. Há fortes evidências de que os algoritmos interferem de forma significativa e indevida na autodeterminação individual, direcionando de forma estratégica conteúdos específicos. Essa situação ganha contornos gigantescos quando postos em conjunturas de importantes deliberações populares, como no caso do Brexit, da eleição presidencial norte-americana e da eleição presidencial brasileira.
Sob essa perspectiva, pode-se conjecturar que a Inteligência Artificial contribuiu para a deslegitimação de oposições e de adversários políticos, deformando o processo democrático e reduzindo o debate no interior da esfera pública a um discurso moralizador. Além disso, algoritmos foram maciçamente utilizados para a formação de verdadeiras “bolhas sociais”, segmentando indivíduos com informações persuasivas baseadas em avaliações de interesses e tipos de personalidade.
Apesar de ainda ser uma novidade no Brasil, a problemática relativa às deepfakes já vem sendo amplamente discutida em outros países, sendo, por exemplo, alvo de atenção do Departamento de Defesa dos Estados Unidos desde 2018. Tal órgão criou um software capaz de analisar sinais de manipulação em uma imagem. Ademais, em relatório recente do McAfee, empresa estadunidense de software de segurança, Steve Grobman, diretor de tecnologia da companhia, afirmou que “Deepfakes podem se transformar em armas para intensificar a guerra de informação”.
Nesse contexto, segundo Aviv Ovadya, pesquisador e tecnólogo estadunidense, como resultado de certa “apatia”, os cidadãos deixaram de tentar entender o que é real e o que é inventado, motivo pelo qual a democracia em si também está em jogo. Em suas palavras:
Sociedades menos alfabetizadas [digitalmente] e aquelas com culturas com instituições midiáticas mais fracas provavelmente sofrerão mais impacto, já que vídeo e áudio manipulados não poderão ser neutralizados por outras formas de mídia.[2]
O Congresso dos Estados Unidos, em dezembro de 2018, criou o primeiro projeto de lei federal voltado para essa questão. Chamado de Malicious Deep Fake Prohibition, a lei torna crime federal criar ou distribuir deepfakes nos casos em que isso contribui para condutas ilegais. Ademais, também foi criada uma Ação de Responsabilidade sobre deepfakes, adotada desde junho de 2019, que exige a inserção de marcas d’água e rótulos claros em todas as mídias que se utilizam desse recurso de inteligência artificial[3].
No Brasil, o art. 2º da Lei Geral de Proteção de Dados Pessoais (LGPD), que dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural, possui como fundamentos:
Art. 2º: (…) I — o respeito à privacidade; II — a autodeterminação informativa; III — a liberdade de expressão, de informação, de comunicação e de opinião; IV — a inviolabilidade da intimidade, da honra e da imagem; V — o desenvolvimento econômico e tecnológico e a inovação; VI — a livre iniciativa, a livre concorrência e a defesa do consumidor; e VII — os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais.[4]
Desse modo, em meio a essa diversidade de princípios que se misturam e, por vezes, se anulam, como conciliar as novas tecnologias citadas com um ambiente democrático, protegendo, igualmente, os dados e, principalmente, os cidadãos?
Jennyfer Fonseca é graduanda em Direito pela Universidade de Brasília (UnB). Analista e desenvolvedora de sistemas pelo IFRR. Participa dos grupos de Estudos DISCO e LEIJUS, realizando pesquisas com orientadores de peso de ambos os grupos, respectivamente, Professor Marcelo Neves e Professora Talita Rampin.
Lucas Igor é mestrando em Direito Constitucional pela Universidade de Brasília (UnB).
REFERÊNCIAS BIBLIOGRÁFICAS:
[1] DE MELO, João Ozorio. Operadores do Direito terão de aprender a lidar com provas “deepfakes”. Disponível em: <https://www.conjur.com.br/2020-mar-05/justica-aprender-lidar-provas-deepfakes>. Acesso em: 17 de junho de 2020.
[2] VIANA, Natalia; ZANATTA, Carolina. Deep fakes são ameaça no horizonte, mas ainda não são arma para eleições, diz especialista. Disponível em: <https://apublica.org/2018/10/deep-fakes-sao-ameaca-no-horizonte-mas-ainda-nao-sao-arma-para-eleicoes-diz-especialista/>. Acesso em: 17 de junho de 2020.
[3]KNIGHT, Will. The Defense Department has produced the first tools for catching deepfakes. Disponível em: <https://www.technologyreview.com/2018/08/07/66640/the-defense-department-has-produced-the-first-tools-for-catching-deepfakes/>. Acesso em: 17 de junho de 2020.
[4] BRASIL. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em: <http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm>. Acesso em: 17 de junho de 2020.