Principais vantagens
- O software que usa inteligência artificial para traçar o perfil das pessoas está levantando questões de privacidade.
- A Cryfe combina técnicas de análise comportamental com inteligência artificial.
- A empresa chinesa Alibaba enfrentou recentemente críticas após supostamente dizer que seu software pode detectar uigures e outras minorias étnicas.
Mais do que palavras
O Cryfe foi desenvolvido por uma empresa suíça cujos funcionários foram treinados pelo FBI em técnicas de criação de perfis. “O Cryfe, em toda comunicação interpessoal, não só escuta as palavras, mas identifica outros sinais emitidos pelo humano, como emoções, microexpressões e todos os gestos”, disse Caroline Matteucci, fundadora da Cryfe, em entrevista por e-mail. “Durante o recrutamento, por exemplo, isso nos permite ir em busca da verdadeira personalidade do nosso interlocutor”. Matteucci disse que a privacidade dos usuários é protegida porque a empresa é transparente sobre como seu software funciona. “O usuário, antes de poder utilizar a plataforma, deve aceitar as condições gerais”, afirmou. “Fica aí especificado que o utilizador não pode, em caso algum, submeter entrevista para análise sem ter obtido o consentimento por escrito do interlocutor”. O Cryfe não é o único software com IA que se propõe a analisar o comportamento humano. Há também a Humantic, que afirma analisar o comportamento do consumidor. “A tecnologia inovadora da Humantic prevê o comportamento de todos sem que eles precisem fazer um teste de personalidade”, de acordo com o site da empresa.
As empresas chinesas supostamente avaliam as minorias
O rastreamento comportamental também pode ter propósitos mais sinistros, dizem alguns grupos de direitos humanos. Na China, o gigante do mercado online Alibaba levantou recentemente um rebuliço depois de alegar que seu software poderia detectar uigures e outras minorias étnicas.
O jornal New York Times relatou que o negócio de computação em nuvem da empresa tinha um software que digitalizava imagens e vídeos. “Mas mesmo os humanos que codificam esses algoritmos … não poderiam dizer por que eles fazem qualquer recomendação.”
The Washington Post também relatou recentemente que a Huawei, outra empresa de tecnologia chinesa, testou um software que pode alertar a polícia quando suas câmeras de vigilância detectarem rostos de uigures. Um pedido de patente de 2018 da Huawei alegou que a “identificação de atributos de pedestres é muito importante” na tecnologia de reconhecimento facial. “Os atributos do objeto de destino podem ser gênero (masculino, feminino), idade (como adolescentes, meia-idade, idosos) [or] raça (Han, Uyghur) “, disse o aplicativo. Um porta-voz da Huawei disse à CNN Business que o recurso de identificação étnica” nunca deveria ter se tornado parte do aplicativo “. levantar questões de privacidade. Você pode nunca saber quem ou o que está analisando você na próxima vez que for para uma entrevista de emprego.