Você pode ser preso por usar inteligência artificial? Veja o que diz a lei


A rápida integração de ferramentas de Inteligência Artificial (IA) no cotidiano dos brasileiros, como a redação de e-mails com o ChatGPT à criação de imagens com MidJourney AI, transformou a tecnologia de uma promessa futurista em uma realidade presente. Com essa popularização, surgem dúvidas cruciais sobre os limites éticos e legais de seu uso. A pergunta que ecoa entre usuários, criadores e empresas é direta: usar IA pode levar à prisão?
Embora o Brasil ainda não possua uma “Lei da Inteligência Artificial” consolidada, é um equívoco pensar que existe um vácuo legal. Para aprofundar a análise e trazer respostas diretas, o TechTudo conversou com Matheus de Oliveira, advogado, pós-graduado em Direito Processual Civil pela PUC-SP e especialista em Direito Digital. A seguir, veja como a lei trata deepfakes e golpes, se é possível usar IA no TCC sem ser acusado de plágio e o que fazer caso você seja uma vítima.
🔎 Vazamento expõe milhares de conversas privadas com IA de Elon Musk; veja
🔔 Canal de ofertas no WhatsApp: confira promoções, descontos e cupons a qualquer hora
O ChatGPT se tornou uma ferramenta usada por muitos brasileiros
Reprodução/Internet
📝 Inteligência artificial é perigosa? Entenda no Fórum TechTudo
A seguir, confira os tópicos que serão abordados neste guia:
O que a lei brasileira já prevê sobre o uso de I.A
Plágio acadêmico e uso de I.A em trabalhos
Deepfakes e crimes digitais
Sátira, fake news e liberdade de expressão
Projetos de lei e futuro da regulação
Se você for vítima: o que fazer
1. O que a lei brasileira já prevê sobre o uso de I.A
A ausência de uma legislação singular e específica para a Inteligência Artificial no Brasil não significa impunidade. Pelo contrário, o sistema jurídico opera sob uma lógica de adaptação, aplicando um conjunto de normas preexistentes para regular os novos desafios tecnológicos. O Poder Judiciário não aguarda passivamente por uma nova lei; ele utiliza os instrumentos que já possui, como o Código Penal, a Lei Geral de Proteção de Dados (LGPD), a Lei de Direitos Autorais e o Marco Civil da Internet, para dar respostas às demandas que surgem.
Segundo o advogado Matheus de Oliveira, além dos marcos legais mais conhecidos, outras leis mais recentes também compõem esse mosaico, como a Lei do Deepfake (voltada à violência sexual contra a mulher), a Lei do Cyberbullying e a Lei Carolina Dieckmann. Ele explica que, a depender da situação, o Código de Defesa do Consumidor e o Código Civil também são aplicáveis. Assim, um consumidor lesado por um anúncio falso criado com IA pode usar o CDC para buscar ressarcimento, enquanto os responsáveis podem responder criminalmente pela fraude.
A aplicação dessas leis já é uma realidade nos tribunais, que têm se mostrado atentos aos desdobramentos do uso indevido da IA. Oliveira destaca que, mesmo sem uma lei específica para deepfakes, o Judiciário tem sido firme. “No contexto civil, utiliza-se a regra prevista no artigo 5º, X da Constituição Federal, que trata da inviolabilidade da intimidade, vida privada, honra e imagem das pessoas, assegurando o direito à indenização por danos morais e materiais em caso de violação”, afirma o especialista.
Vídeo Deep Fake de Albert Einstein gerado por IA no modelo Goku da ByteDance
Reprodução/ByteDance
2. Plágio acadêmico e uso de IA em trabalhos
O uso de ferramentas como o ChatGPT para gerar trabalhos acadêmicos, como o Trabalho de Conclusão de Curso (TCC), expõe o estudante a um leque de consequências que começam no âmbito acadêmico e podem escalar para o judicial. A primeira e mais certa punição é a institucional. A maioria das universidades considera a entrega de um trabalho gerado por IA como uma forma de plágio ou fraude, sujeita a sanções que variam desde a reprovação na disciplina até a suspensão ou expulsão.
A questão se aprofunda na esfera legal. O advogado explica que o problema reside na forma como a IA coleta informações, um processo chamado “scraping”, que varre inúmeros sites e obras protegidas por direitos autorais sem conferir os devidos créditos. Do ponto de vista criminal, a conduta pode ser grave.
“Além de caracterizar violação a direitos autorais […] pode, sim, haver a caracterização do crime de falsidade ideológica, já que o tipo penal consiste em ‘[Omitir, em documento público ou particular, declaração que dele devia constar […]’, a depender do contexto e da destinação do conteúdo”, alerta Oliveira.
Essa zona cinzenta evidencia um descompasso entre a clara reprovação ética da prática e a complexidade de sua tipificação penal. É justamente para fechar essa lacuna que o Projeto de Lei 262/2024 foi proposto, visando criar no Código Penal o crime específico de “falsidade científica ou acadêmica”. A existência desse projeto é um sinal claro de que a janela de impunidade criminal para essa prática pode estar se fechando, transformando o que hoje é majoritariamente uma infração ética e acadêmica em um crime com pena de prisão.
3. Deepfakes e crimes digitais
A tecnologia de deepfake, que utiliza IA para criar manipulações ultrarrealistas de vídeo e áudio, tornou-se uma arma poderosa para criminosos. No Brasil, diversos casos de grande repercussão ilustram o perigo, com imagens e vozes de celebridades sendo clonadas para promover produtos e aplicar golpes financeiros. O jornalista William Bonner, da TV Globo, é constantemente alvo de criminosos que utilizam sua voz e sua imagem para criação de notícias falsas. O perigo, no entanto, não se restringe a figuras públicas; a clonagem de voz tem sido amplamente utilizada em golpes de engenharia social, nos quais criminosos simulam a voz de um familiar em uma falsa situação de emergência para solicitar transferências via Pix.
Segundo Matheus de Oliveira, apesar da novidade da ferramenta, o Código Penal brasileiro já possui um arsenal de tipos penais que se aplicam a essas condutas. A depender da finalidade do material falso, o autor pode responder por Falsidade Ideológica (art. 299), Estelionato (art. 171), Crimes Contra a Honra (arts. 138 a 140), Intimidação Sistemática Virtual (cyberbullying, art. 146-A) e Falsidade de Identidade (art. 307). Isso mostra que a responsabilidade criminal é ampla e abrange desde o prejuízo financeiro até os danos à honra e à imagem.
A Justiça já tem respondido a esses casos. Oliveira cita um julgamento recente em São Paulo envolvendo a criação de montagens de cunho sexual de uma artista, em que a plataforma foi condenada a remover o conteúdo e fornecer os dados para identificação do responsável. “A responsabilidade atribuída aos criadores de deepfakes […] pode ser tanto civil quanto criminal”, explica o especialista, que também ressalta a complexidade da responsabilização de quem apenas compartilha o conteúdo, embora seu entendimento seja de que “cada compartilhamento atrai, para o responsável, as consequências aplicáveis àquele que inicialmente propagou o conteúdo”.
Jornalista William Bonner é alvo de ‘deep fakes’, na qual criminosos utilizam seu rosto e sua voz para a criação notícias falsas
Reprodução/TV Globo
4. Sátira, fake news e liberdade de expressão
Em 2023, uma imagem do até então Papa Francisco, vestindo um estiloso casaco de grife viralizou mundialmente, enganando milhões de pessoas. O caso, criado pela ferramenta de IA Midjourney, é um exemplo perfeito para discutir a tênue fronteira entre a criação artística, a sátira e a desinformação. A intenção do criador pode ter sido lúdica, mas uma vez que a imagem é descontextualizada e compartilhada como real, ela se transforma em fake news, corroendo a confiança na informação visual.
Do ponto de vista jurídico, o advogado explica que a análise de casos como este passa pela verificação do chamado animus jocandi, ou a “intenção de brincar”. “Tudo vai depender da natureza da publicação ou do material criado, a relação entre as partes envolvidas, a forma como ele foi veiculado, etc.”, afirma Oliveira, ressaltando que é preciso averiguar se o conteúdo foi capaz de manchar a reputação da pessoa retratada ou se ficou claro o seu propósito humorístico.
O debate sobre a desinformação e a responsabilidade das plataformas digitais está no centro de propostas legislativas como o PL das Fake News. Oliveira aponta que a interpretação sobre a responsabilidade das plataformas tem evoluído, passando de uma “ampla imunidade” para um entendimento de que elas possuem um “dever de cuidado”. A tendência regulatória não é proibir a criação de conteúdo sintético, mas sim impor um dever de transparência, restringindo a distribuição enganosa de material falso.
Papa Francisco utilizando uma jaqueta puffer de grife é uma criação de inteligência artificial
Reprodução/Midjourney
5. Projetos de lei e futuro da regulação
A proposta mais avançada para uma regulação abrangente da IA no Brasil é o Projeto de Lei n° 2.338, de 2023, conhecido como Marco Regulatório da Inteligência Artificial. Fortemente inspirado na legislação europeia, o projeto adota uma abordagem baseada em risco, classificando os sistemas de IA de acordo com seu potencial de dano, e estabelece como fundamentos o respeito aos direitos humanos, à democracia e à privacidade. A proposta busca alinhar o país às diretrizes internacionais, sem tentar frear a inovação.
O advogado Matheus de Oliveira detalha que o projeto visa, entre outros pontos, classificar os riscos, assegurar direitos aos usuários, impor obrigações a desenvolvedores e distribuidores, criar uma estrutura regulatória e incentivar boas práticas. Ele destaca que a proposta não ignora a importância da pesquisa, mas busca criar um espaço de inovação regulada. Essa abordagem, em sua visão, é a mais equilibrada para o país.
“Considero acertada esta abordagem baseada na análise de riscos e responsabilidade compartilhada, uma vez que assim conseguimos proteger os cidadãos sem bloquear o avanço tecnológico”, avalia Oliveira.
O especialista explica que o próprio texto do Marco Regulatório prevê que suas regras não se aplicarão a sistemas de IA em fase de pesquisa e desenvolvimento, desde que respeitem legislações já vigentes como a LGPD e o Código de Defesa do Consumidor, criando um ambiente seguro para a experimentação.
6. Se você for vítima: o que fazer
Ser vítima de um crime virtual envolvendo IA pode ser uma experiência traumática, mas agir de forma rápida e organizada é fundamental. O primeiro passo é sempre documentar tudo: salvar links, arquivos e, principalmente, realizar capturas de tela que mostrem data, hora e o endereço da página. O advogado recomenda, inclusive, a lavratura de uma ata notarial para dar mais força jurídica às provas. Em seguida, deve-se registrar um Boletim de Ocorrência (B.O.), que para a maioria dos crimes virtuais pode ser feito online, e denunciar o conteúdo diretamente na plataforma onde foi publicado.
Após os primeiros socorros digitais, Oliveira recomenda a prática da “higiene cibernética”: trocar senhas, ativar a autenticação de dois fatores em todas as contas, revogar acessos a aplicativos e limpar o histórico de navegação. Também é crucial avisar amigos e familiares sobre o golpe para que não se tornem novas vítimas. Depois, com o auxílio de um advogado, é possível avaliar as medidas judiciais, como uma ação cível para remoção de conteúdo e indenização, ou uma ação criminal, a depender do crime.
“Se o golpe levou à realização de transferência de valores via Pix, o ideal é entrar em contato imediatamente com o banco e […] solicitar a abertura do MED, que é o Mecanismo Especial de Devolução, criado pelo Banco Central para tentar reverter esse tipo de fraude”, orienta o especialista.
Em casos de fraude financeira, há um mecanismo específico que pode ajudar. Segundo ele, o banco deve registrar a notificação, bloquear os valores e tem um prazo de até sete dias para analisar a existência da fraude e tentar a devolução do dinheiro.
A personagem Karine, da novela Travessia, é enganada por um pedófilo que usa do deep fake para se passar por uma influencer
Divulgação/Rede Globo
Com informações de Câmara dos Deputados, PUCSP, JusDocs, Senado Federal e Agência Brasil
Mais do TechTudo
Veja também: Você sabe diferenciar um vídeo real de um feito com IA?
Você sabe diferenciar um vídeo real ou feito com IA? Testamos o público!