Skip to content

Por que o novo software de criação de perfil gera preocupações com a privacidade

29 de abril de 2021

Principais vantagens

  • O software que usa inteligência artificial para traçar o perfil das pessoas está levantando questões de privacidade.
  • A Cryfe combina técnicas de análise comportamental com inteligência artificial.
  • A empresa chinesa Alibaba enfrentou recentemente críticas após supostamente dizer que seu software pode detectar uigures e outras minorias étnicas.
Imagens KENGKAT / Getty
Um novo software alimentado por inteligência artificial que permite aos empregadores traçar o perfil de seus funcionários está levantando questões de privacidade. Uma nova plataforma de software, chamada Cryfe, combina técnicas de análise comportamental com inteligência artificial. O desenvolvedor afirma que, ao analisar pistas minuciosas, o software pode revelar as intenções das pessoas durante as entrevistas. Mas alguns observadores dizem que o Cryfe e outros tipos de software que analisam o comportamento podem invadir a privacidade. “As empresas contam cada vez mais com a IA para fazer perfis”, disse o especialista em IA Vaclav Vincale em uma entrevista por e-mail. “Mas mesmo os humanos que codificam esses algoritmos, muito menos uma pessoa de suporte ao cliente que você contata pelo telefone, não sabiam dizer por que eles fazem qualquer recomendação.”

Mais do que palavras

O Cryfe foi desenvolvido por uma empresa suíça cujos funcionários foram treinados pelo FBI em técnicas de criação de perfis. “O Cryfe, em toda comunicação interpessoal, não só escuta as palavras, mas identifica outros sinais emitidos pelo humano, como emoções, microexpressões e todos os gestos”, disse Caroline Matteucci, fundadora da Cryfe, em entrevista por e-mail. “Durante o recrutamento, por exemplo, isso nos permite ir em busca da verdadeira personalidade do nosso interlocutor”. Matteucci disse que a privacidade dos usuários é protegida porque a empresa é transparente sobre como seu software funciona. “O usuário, antes de poder utilizar a plataforma, deve aceitar as condições gerais”, afirmou. “Fica aí especificado que o utilizador não pode, em caso algum, submeter entrevista para análise sem ter obtido o consentimento por escrito do interlocutor”. O Cryfe não é o único software com IA que se propõe a analisar o comportamento humano. Há também a Humantic, que afirma analisar o comportamento do consumidor. “A tecnologia inovadora da Humantic prevê o comportamento de todos sem que eles precisem fazer um teste de personalidade”, de acordo com o site da empresa.

A Inteligência Artificial se sobrepõe às pessoas em uma reunião.

metamorworks / Getty Images
A empresa afirma usar a IA para criar perfis psicológicos dos candidatos com base nas palavras que eles usam em currículos, cartas de apresentação, perfis do LinkedIn e qualquer outro texto que eles enviem. O software comportamental já enfrentou desafios legais no passado. Em 2019, Lei Bloomberg relataram que a Equal Employment Opportunity Commission (EEOC) investigou casos de alegada discriminação ilegal devido a decisões relacionadas a RH auxiliadas por algoritmos. “Tudo isso terá que ser resolvido porque o futuro do recrutamento é a IA”, disse o advogado Bradford Newman à Bloomberg. Alguns observadores questionam as empresas que usam software de rastreamento comportamental porque não é preciso o suficiente. Em uma entrevista, Nigel Duffy, líder global de inteligência artificial na empresa de serviços profissionais EY, disse InformationWeek que ele está preocupado com software que usa questionários de mídia social e afeta a detecção. “Eu acho que há alguma literatura realmente convincente sobre o potencial de detecção de afeto, mas meu entendimento é que a maneira que isso é implementado muitas vezes é bastante ingênua”, disse ele. “As pessoas estão fazendo inferências de que a ciência realmente não apóia [such as] decidir que alguém é um funcionário potencialmente bom porque está sorrindo muito ou decidir que alguém gosta de seus produtos porque está sorrindo muito. ”

As empresas chinesas supostamente avaliam as minorias

O rastreamento comportamental também pode ter propósitos mais sinistros, dizem alguns grupos de direitos humanos. Na China, o gigante do mercado online Alibaba levantou recentemente um rebuliço depois de alegar que seu software poderia detectar uigures e outras minorias étnicas.

O jornal New York Times relatou que o negócio de computação em nuvem da empresa tinha um software que digitalizava imagens e vídeos. “Mas mesmo os humanos que codificam esses algoritmos … não poderiam dizer por que eles fazem qualquer recomendação.”

The Washington Post também relatou recentemente que a Huawei, outra empresa de tecnologia chinesa, testou um software que pode alertar a polícia quando suas câmeras de vigilância detectarem rostos de uigures. Um pedido de patente de 2018 da Huawei alegou que a “identificação de atributos de pedestres é muito importante” na tecnologia de reconhecimento facial. “Os atributos do objeto de destino podem ser gênero (masculino, feminino), idade (como adolescentes, meia-idade, idosos) [or] raça (Han, Uyghur) “, disse o aplicativo. Um porta-voz da Huawei disse à CNN Business que o recurso de identificação étnica” nunca deveria ter se tornado parte do aplicativo “. levantar questões de privacidade. Você pode nunca saber quem ou o que está analisando você na próxima vez que for para uma entrevista de emprego.