O baixo custo e a alta tecnologia dos dispositivos de captura de imagens aliados ao aumento da interconectividade dos cidadãos trazem benefícios nunca antes observados pela nossa sociedade. No entanto, esses fatores também têm consequências negativas como o aumento da circulação de documentos falsificados em nosso dia-a-dia.

Indubitavelmente, com o desenvolvimento tecnológico, os crimes tornaram-se mais sofisticados migrando do mundo físico e atingindo, também, o mundo virtual. Diante das inúmeras formas com que as atividades ilegais podem tomar, a saída para a sociedade moderna está no investimento em técnicas de investigação aprimoradas e cientificamente fundamentadas. Nesse sentido, aparece a Ciência Forense que diz respeito à área do conhecimento relativa à aplicação de conceitos multidisciplinares diversos com o intuito de resolver questões de interesse do sistema legal seja de natureza criminal ou cível. Dentro da Ciência Forense aparece um subcampo de pesquisas especializado no desenvolvimento de abordagens relacionadas à análise de documentos digitais denominada Análise Forense de Documentos (AFD).

A AFD diz respeito ao campo de pesquisas relacionado à análise de documentos digitais para a verificação de sua origem e/ou autenticidade. Esse campo de pesquisas é relativamente novo e atua em conjunto com diversas outras áreas do conhecimento humano.

Neste artigo, discutiremos algumas técnicas presentes na literatura, algumas abordagens contra forenses, desafios na área e a relação da AFD com outras disciplinas. Mostraremos, por exemplo, porque não podemos mais tomar uma fotografia como uma versão incontestável da verdade.

Análise de Origem

No âmbito da análise de origem, uma forma de executar esta tarefa é a partir da identificação da fonte geradora do documento. Assim como uma arma utilizada em um disparo deixa ranhuras no projétil, o dispositivo gerador de uma imagem digital, por exemplo, também deixa “marcas” na mesma. Estas marcas são provenientes de características
próprias do dispositivo gerador, como defeitos de fabricação, modo de interação entre os componentes da câmera e a luz, algoritmos de geração de imagem implementados nos componentes do dispositivo, entre outras.

Pesquisas relacionadas à atribuição de fonte em imagens digitais visam identificar a marca ou fabricante do dispositivo utilizado na geração. Em particular, a tarefa de se encontrar o dispositivo específico utilizado na captura de uma imagem é a mais estudada. Para isso, é necessário analisar e identificar características únicas em relação à câmera empregada no momento da aquisição. Alguns trabalhos examinam imperfeições nos sensores de aquisição para identificar o dispositivo de captura. Outros analisam artefatos originados pela presença de poeira nas lentes no momento da aquisição.

Atualmente, as técnicas mais efetivas para a identificação do dispositivo de captura analisam os efeitos do ruído inserido no processo de captura de imagens. Lukas et al. [1] consideram que uma câmera sempre deixa o mesmo padrão de ruído nas imagens, como se fosse uma “impressão digital” e que, estimando-se esse padrão, é possível determinar se uma imagem de pornografia infantil, por exemplo, foi gerada por uma câmera apreendida na residência de um suspeito. O padrão de ruído mais utilizado é o de fotorresponsividade não uniforme. Esse ruído decorre, principalmente, da interação entre a luz incidente, o sistema de lentes e o sensor de captura de uma imagem.

Análise de Autenticidade

Ferramentas de manipulação poderosas como o Adobe Photoshop e GNU GIMP permitem, atualmente, que usuários comuns tornem-se potenciais especialistas na manipulação da verdade.

Um documento digital (e.g., imagem, arquivo em PDF e vídeo) pode ser modificado computacionalmente para retratar um conteúdo diferente do original. Casos como o da falsa ficha criminal (estampada em um jornal brasileiro em 2009) referente a então ministra da Casa Civil do Brasil Dilma Rousseff [2] ou, ainda, a descoberta de falsificações nos resultados visuais do trabalho de Woo-Suk Hwang [3], publicado pela Science em 2005, que apresentava avanços notáveis na pesquisa em geração de células-tronco, evidenciam a importância de métodos computacionais para auxiliar no exame de autenticidade de documentos (principalmente imagens) digitais.

Cópia-colagem (ou clonagem) é a denominação dada à manipulação digital de imagens, na qual elementos da cena são mascarados e/ou duplicados utilizando porções da própria imagem, como regiões de textura (e.g. céu azul e areia). Por exemplo, pode-se eliminar um indivíduo ou outro elemento indesejável da cena sobrepondo-se segmentos da própria imagem aos pixels da região contendo tal elemento. Para que a imagem final permaneça com um aspecto visual convincente, contudo, é necessário, aplicar operações locais como rotação, redimensionamento e suavização de bordas nas regiões adulteradas. Além disso, a imagem pode ser comprimida em formato JPEG. Estas operações são frequentemente efetuadas para dificultar a análise da imagem em busca de traços de adulteração. A Figura 1 apresenta um exemplo de cópia-colagem na qual um elemento foi duplicado na imagem.



Figura 1. Exemplo de cópia-colagem. A imagem de cima é a original e a de baixo é a adulterada (um dos animais foi duplicado).

Técnicas para identificação de manipulações de cópia-colagem dividem as imagens em blocos de tamanho fixo com sobreposição. Cada bloco (quadrado) pode ser entendido como uma matriz na qual cada posição contém um valor (de pixel). Os blocos são linearizados e transportados para uma matriz (um bloco por linha), a qual é ordenada de forma a aproximar os blocos similares. Finalmente, cada linha é comparada com suas linhas vizinhas, e blocos semelhantes são marcados como duplicados. Entretanto, esta técnica não revela clonagens envolvendo operações como rotação, compressão JPEG, etc.

Abordagens mais sofisticadas como a de Fridrich et al. [4] e Popescu [5], propõem transformar os blocos de pixels empregando a Transformada Discreta do Cosseno e Análise de Componentes Principais, respectivamente. O primeiro método melhora a detecção no cenário de compressão JPEG, porém falha nos demais. O segundo trata, além da compressão, a eventual adição de ruídos (e.g., Gaussianos) à imagem adulterada (tornando a detecção mais trabalhosa). As duas técnicas, contudo, não são eficazes na determinação das regiões clonadas quando estas são alvo de outras operações locais (e.g., rotação).

Xu et al. [6] apresentam uma técnica para detecção de cópia-colagem baseada na comparação de descritores SURF (Speeded-Up Robust Features). Esses descritores são vetores de 128 posições que contêm informações referentes à região ao redor de pontos-chave (keypoints), que são pontos robustos a operações de rotação e escala na imagem. Esta estratégia difere das demais no sentido de que não compara blocos de pixels diretamente, mas encontra pontos na imagem que se correspondem. A técnica é um passo importante na resolução do desafio aqui discutido.

Outro tipo de falsificação de imagens é a chamada composição (splicing). Esta técnica consiste na criação de uma imagem utilizando elementos de duas ou mais imagens. As principais abordagens para a detecção desse procedimento focam as propriedades estruturais e as inconsistências de iluminação na cena. A Figura 2 mostra um exemplo deste tipo de falsificação.

Figura 2. Exemplo de composição. As duas imagens mais à esquerda foram utilizadas para compor a imagem à direita.

No âmbito das propriedades estruturais da imagem, Popescu e Farid [7] analisam os efeitos da dupla compressão em imagens JPEG, uma vez que esta insere indícios estatísticos não presentes na imagem original. No entanto, nem sempre uma dupla compressão indica ato malicioso, sugerindo apenas que a imagem foi editada de alguma maneira, por exemplo, através de filtragem ou reamostragem. Em outra abordagem, He  et  al.  [8]  afirmam que, dada uma imagem que contenha partes adulteradas e partes sem adulteração, a Transformada do Cosseno na parte inalterada sofre os efeitos da dupla compressão. Já a parte modificada não sofre o mesmo se ela é originada de uma câmera diferente ou de uma imagem JPEG diferente.

Quando uma imagem é construída utilizando o processo de composição, realizar o casamento de iluminação entre as partes utilizadas é uma tarefa trabalhosa, uma vez que cada uma das imagens utilizadas na composição possui diferentes tipos de iluminação.  Assim, outra maneira para se detectar composições é procurando por inconsistências de iluminação na imagem. Entre os métodos que utilizam, com sucesso, esse tipo de características, uma abordagem interessante é proposta por Saboia et al. [9]. Nela, os autores analisam os reflexos de iluminação nos olhos das pessoas para decidir se uma foto é, ou não, produto de uma composição. O método pode ser descrito em quatro estágios:

No estágio inicial, o método estima a direção da fonte de luz e do visualizador (câmera) para cada um dos olhos presentes na foto utilizando métodos matemáticos.

Uma vez calculadas as informações do visualizador e da fonte de luz de cada olho na foto, o segundo estágio consiste em estimar a posição da fonte de luz e da câmera.

No terceiro estágio, o método caracteriza cada imagem buscando informações relevantes. Tais informações dependem do problema abordado e pode ser representada pela cor, textura, forma ou, nesse caso, todas as posições (da fonte de luz global e câmera), juntamente com os desvios padrões calculados no estágio anterior.

No último estágio, um classificador (método de inteligência artificial que aprende o padrão de cada uma das classes do problema) é treinado e utilizado para classificar novas imagens como pertencentes a uma das classes do problema (imagens sem adulteração e imagens construídas por composição). O processo de treinamento do classificador é baseado em um conjunto de vetores de características rotulados, indicando a classe a que o mesmo pertence. Dada uma nova imagem, seu vetor de características é extraído e enviado para o classificador (já treinado) para que este decida a classe a qual a imagem pertence.

Considerações Finais

Apesar de as técnicas apresentadas serem eficazes quanto ao domínio restrito em que atuam, existem lacunas que elas não preenchem. O trabalho de Gloe et al. [10] explora algumas delas. Os autores discutem uma técnica conhecida como Flatfielding, por exemplo, capaz de remover o ruído padrão de uma câmera em uma imagem, substituindo-o pelo de outra. Também é possível reamostrar a imagem adulterada em uma nova grade (utilizando deslocamento de um ou dois pixels, por exemplo), diminuindo os traços/pistas da dupla quantização e dificultando o trabalho de detecção de composição pelas inconsistências de compressão. Tais técnicas contra forenses servem de incentivo para o aprimoramento das técnicas forenses atuais.

Ainda que exista grande demanda por eficácia/eficiência em AFD, outros desafios necessitam ser explorados para maior contribuição à área. Um deles está no benchmarking das técnicas apresentadas comparando-as com outras pré-existentes, dado que a validação da maioria das técnicas consiste apenas em testes restritos à pequenas bases de dados ainda não padronizadas. Outro desafio consiste em melhorar as técnicas atuais por meio de pistas fornecidas por técnicas contra-forenses.

Ao desenvolvermos soluções para a detecção de adulterações, é comum analisarmos as propriedades físicas da câmera e suas propriedades estatísticas. Dentro da Ciência da Computação, necessitamos de outras áreas de conhecimento como Banco de Dados (indexação, mineração, agrupamento), Inteligência Artificial (análise de padrões e aprendizado de máquina), Processamento de Imagens e Visão Computacional além de Técnicas de Teoria da Computação, uma vez que necessitamos sempre de eficácia e eficiência em nossas soluções.

Se no futuro poderemos desvendar qualquer manipulação em documentos digitais ou continuar determinando com precisão o dispositivo utilizado na captura de uma imagem, são questões em aberto. A criatividade e ousadia humanas parecem estar sempre um passo à frente dos esforços de pesquisadores. O que aparenta ser paradoxal se materializa como o caminho natural para o aperfeiçoamento da ciência. A analogia é direta: assim como micro-organismos podem se adaptar a medicamentos com o tempo, manipuladores tendem a criar falsificações cada vez mais realistas,
prejudicando diversos indivíduos.

Com demandas tão sofisticadas e cada vez mais complexas, vem a obrigação de se fortalecer, cada vez mais, as bases sobre as quais a Ciência Forense se desenvolve. Mais do que nunca, precisamos de critérios objetivos e cientificamente embasados para identificar características em locais de crimes e acidentes. Esse desenvolvimento envolve o trabalho conjunto de pesquisadores de áreas do conhecimento multidisciplinares. Tais pesquisadores têm a responsabilidade de incorporar os avanços científicos às metodologias utilizadas como resposta a incidentes de modo a prover resultados válidos e objetivos. Apenas os esforços coletivos nessa direção poderão levar a Ciência Forense a vencer os desafios que lhe são apresentados nesse início de século.

* Com a colaboração de Anselmo Ferreira, Everton Silva, Filipe Costa e Tiago Carvalho do Instituto de Computação da Universidade Estadual de Campinas (Unicamp). Anselmo Ferreira, Ewerton Silva, Filipe Costa, Tiago Carvalho

Leia também

Notícias PRNewswire