Para possibilitar que um software consiga realizar a identificação pessoas, nos primórdios do desenvolvimento dessa tecnologia, utilizavam-se fotos frontais dos indivíduos. Com base nessas fotos, tornou-se possível determinar pontos de referência para estabelecer as medições necessárias para mapear a face humana. Os pontos de referência comumente utilizados foram estabelecidos com base em características individuais, passíveis de poucas alterações com o decorrer do tempo.
Para facilitar o processo de identificação e redução dos gastos de recursos computacionais, é estabelecido um processo de padronização das imagens para facilitar as medições. Essa padronização consiste, basicamente, em aplicar um filtro na imagem para remoção das cores e deixá-la apenas em escala de cinza (filtro preto e branco), cortar a imagem para reduzir seu tamanho para o mais próximo possível do rosto a ser identificado e na tentativa de compensação de ângulo da foto e de sua iluminação.
As medições feitas entre os pontos de referência inicialmente eram baseadas na profundidade da cavidade ocular, na largura do nariz e na distância entre os olhos. Com os dados coletados, os valores passam a ser associados ao indivíduo e o seu conjunto é denominado faceprint.
As primeiras versões de programas de reconhecimento facial que se utilizam desse método de medição visam realizar o mapeamento baseando-se em pontos nodais para criação desse faceprint. Apesar de tentar remediar possíveis problemas, existem algumas outras questões levantadas que podem resultar na falha da tentativa de identificação, como por exemplo a iluminação do ambiente, a demonstração de emoções, o envelhecimento e a posição da face do indivíduo em relação à câmera, principalmente ao se utilizar imagens bidimensionais (2D).
Como uma forma de aprimorar o processo de reconhecimento facial a ser executado por uma máquina de forma autônoma, novas formas de medição foram desenvolvidas, feitas com base na distância entre os olhos, na distância entre a parte superior e a parte inferior da testa, no contorno do maxilar e na distância entre a ponta do nariz e da boca. Diferentemente de uma impressão digital, as faces humanas estão em constante mudança, não sendo, portanto, algo estático. A escolha desses pontos se deu a partir da tentativa de minimizar as falhas em potencial no sistema, ou seja, para tentar evitar que alterações que surgem com o decorrer do tempo (crescimento capilar e utilização de maquiagem, por exemplo) resultem na não identificação do indivíduo já cadastrado no banco de dados.
Obter os valores com base em tecidos rígidos e na estrutura óssea da face soluciona, a priori, a questão do envelhecimento, dado que são regiões da face que não sofrem alterações significativas com o agravo da idade da pessoa. Para tentar remediar a questão do posicionamento do rosto em relação à câmera, foram criados modelos tridimensionais (3D), contendo fotos e recriações de diversos ângulos para melhorar a precisão das ferramentas. Buscando aprimorar o nível de precisão, buscou-se o emprego de tecnologia de aperfeiçoamento denominado deepface.
Apesar dos esforços, ainda existem hipóteses de falha no processo de identificação. As principais falhas são classificadas em dois tipos:
Falso positivo:
O sistema retorna um match, ou seja, uma correspondência positiva para a busca realizada em um determinado banco de dados quando o indivíduo, na realidade, não consta no banco de dados.
Falso negativo:
O sistema não retorna um match, ou seja, o sistema não retorna resultados para uma busca realizada em um determinado banco de dados, quando o indivíduo efetivamente consta no banco de dados.
Com a constante busca por melhorias no processo de reconhecimento de faces humanas, novos métodos de análise foram desenvolvidos. Esses métodos podem variar nas suas respectivas técnicas de aquisição das imagens a serem analisadas até na forma como extraem os dados das medições. Ressalta-se a existência de dois métodos desenvolvidos, porém com um emprego generalizado um pouco menos agressivo, sendo eles a análise térmica do indivíduo (maior uso em situações noturnas) e o método STA – Skin Texture Analysis, que consiste na medição da distância entre poros existentes na superfície da pele da pessoa.
Deepface A tecnologia consiste em um sistema de reconhecimento facial baseado em deeplearning, originalmente criado pelo grupo de pesquisas do Facebook.