Você já parou para pensar no impacto da inteligência artificial no direito penal? É uma daquelas questões que parecem futuristas, mas que já estão batendo à porta da prática jurídica. Os escritórios estão mudando, os processos estão sendo digitalizados, e softwares capazes de analisar milhares de páginas em minutos estão se tornando comuns. Mas… será que tudo isso é mesmo um avanço sem riscos?
É claro que há muitas promessas: mais agilidade, economia de tempo, previsibilidade nas decisões. Tudo isso soa maravilhoso, especialmente para quem lida com pilhas e pilhas de processos. Só que — e aqui vem o alerta — essa mesma tecnologia também traz incertezas éticas, riscos à imparcialidade e um possível distanciamento da sensibilidade humana nas decisões mais delicadas.
No caso da advocacia criminal, o dilema é ainda mais intenso. Estamos falando de vidas, de liberdade, de histórias pessoais. Um algoritmo consegue levar tudo isso em consideração? Será que uma máquina pode mesmo captar a complexidade emocional e social que envolve um julgamento? São perguntas que não têm respostas simples, mas que merecem ser discutidas com profundidade.
E é justamente isso que vamos explorar agora. Como a inteligência artificial está se inserindo no universo da defesa criminal? O que ela já faz, o que ainda não faz — e, mais importante, o que talvez nunca devesse fazer? Vamos analisar, sem pressa e sem certezas absolutas, os vários lados dessa moeda tecnológica.
A função do advogado diante da automação
Com o crescimento das tecnologias jurídicas, muito se discute sobre a substituição de funções humanas por sistemas inteligentes. No entanto, o papel do advogado criminalista está longe de ser reduzido a uma série de comandos automatizados. Há uma dimensão subjetiva na atuação jurídica criminal que nenhum código — por mais avançado — consegue simular.
O advogado não apenas interpreta a lei, ele interpreta o contexto. Lida com vítimas, réus, testemunhas, sentimentos. É impossível colocar tudo isso dentro de um banco de dados. A automação pode ser uma aliada para agilizar tarefas repetitivas, como pesquisas jurisprudenciais ou organização de documentos, mas a essência do julgamento continua sendo humana.
Na prática, o que estamos vendo é uma mudança no perfil do advogado. O criminalista moderno precisa entender o funcionamento das ferramentas tecnológicas, mas também precisa saber onde e como usá-las — e, principalmente, onde não usá-las. É um equilíbrio delicado entre tradição e inovação.
Ética profissional em tempos de algoritmos
Com o uso crescente de inteligência artificial, surge uma questão inevitável: como fica a responsabilidade ética do advogado quando parte das decisões ou análises são feitas por máquinas? A defesa em processos no Tribunal de Ética da OAB pode, em breve, começar a envolver casos relacionados ao uso indevido ou irresponsável dessas ferramentas tecnológicas.
O código de ética da advocacia não foi escrito pensando em algoritmos, mas isso não significa que a tecnologia está acima da moral profissional. Um advogado que utiliza IA para criar peças processuais sem revisão, ou que confia cegamente em sugestões automáticas, pode estar colocando em risco a defesa do cliente — e sua própria reputação.
Além disso, há o risco da chamada “terceirização da responsabilidade”. Se uma IA comete um erro, de quem é a culpa? Do programador? Do advogado? Do juiz que aceitou aquela prova? A ética precisa se adaptar a esse novo cenário, mas sem perder seus fundamentos: zelo, lealdade, diligência e, acima de tudo, responsabilidade individual.
Quando a decisão é urgente: o impacto da IA na audiência de custódia
Um dos momentos mais críticos do processo penal — e que tem despertado debates sobre o uso de IA — é a audiência de custódia. Esse é o instante em que o juiz decide, em poucas horas após a prisão, se o acusado deve responder em liberdade ou permanecer detido. Aqui, qualquer tipo de automatização deve ser visto com muito cuidado.
Há estudos que sugerem o uso de inteligência artificial para identificar padrões de risco ou reincidência com base em dados estatísticos. Mas esses algoritmos não consideram, por exemplo, aspectos subjetivos como a fragilidade emocional do acusado, o contexto social ou familiar. Coisas que só um ser humano — olhando nos olhos, ouvindo com atenção — consegue captar.
Se um advogado confia demais em dados objetivos nesse momento, pode perder a chance de humanizar a defesa. A audiência de custódia é uma situação que exige sensibilidade, argumentação estratégica e improviso. Nenhum software, por mais “inteligente”, substitui a presença ativa e atenta do defensor ali do lado do réu.
O perigo de decisões automáticas em crimes contra a honra
Nos crimes contra honra, como calúnia, difamação e injúria, o risco do uso de inteligência artificial é ainda mais delicado. Esses crimes envolvem nuances de linguagem, ironias, contextos culturais e subjetividades que desafiam até os julgadores humanos — imagine os algoritmos.
Já existem softwares capazes de identificar discurso de ódio, mas muitos ainda falham ao interpretar sarcasmos ou expressões regionais. Em um tribunal, isso pode resultar em erros graves, tanto na acusação quanto na defesa. A IA, nesse caso, pode reforçar estigmas e padrões enviesados ao invés de promover justiça.
O advogado criminalista precisa estar atento a esses riscos e agir como filtro. Ele deve analisar as informações processadas por sistemas automatizados e questionar quando necessário. Afinal, quem responde ao cliente — e à justiça — continua sendo o profissional de carne e osso.
O desafio da atuação na advocacia criminal do Rio
Na advocacia criminal Rio de Janeiro, o uso da tecnologia encontra um terreno complexo e cheio de particularidades. A realidade das grandes cidades — com seu volume de processos, diversidade cultural e desigualdade social — exige cautela no uso de qualquer solução padronizada.
No Rio, por exemplo, uma simples análise automatizada de antecedentes pode ser distorcida por registros incompletos, erros administrativos ou até preconceitos históricos. A IA pode, involuntariamente, reproduzir e até ampliar essas distorções, influenciando decisões com base em dados enviesados.
O advogado que atua nesse cenário precisa redobrar a vigilância. Ele deve conhecer bem os sistemas que utiliza e estar preparado para contestar decisões automáticas que não levem em conta a realidade concreta dos acusados. A tecnologia pode ser uma aliada — mas só quando usada com senso crítico e responsabilidade.
Onde a máquina para e o humano começa
Por mais avançada que seja a tecnologia, ela sempre terá um limite: o da empatia. Um software pode sugerir sentenças, montar petições e prever desfechos, mas nunca vai sentir o peso de uma decisão judicial na vida real de uma pessoa. Esse papel continua sendo — e sempre será — do ser humano.
Na advocacia criminal, essa diferença é ainda mais gritante. O defensor não é apenas um técnico da lei. Ele é um interlocutor, um conselheiro, um escudo entre o réu e o aparato estatal. Sua atuação vai além da lógica binária das máquinas. Envolve sensibilidade, improviso, e até aquela intuição difícil de explicar.
Portanto, o grande desafio não é competir com a inteligência artificial, mas aprender a coexistir com ela. Usá-la como ferramenta — nunca como substituto. Saber onde a máquina pode ajudar, onde ela pode atrapalhar e, principalmente, onde ela simplesmente não pertence.