Racismo em I.A. leva universidade a desistir de reconhecimento facial no campus

A Universidade da Califórnia (UCLA) desistiu, no dia 18/2, de usar reconhecimento facial em seu campus. A tecnologia vinha sendo avaliada como ferramenta e segurança, para identificar os frequentadores da universidade. A desistência ocorreu após a ONG Fight for the Future fazer um teste: usou um software disponível no mercado para comparar as faces de 400 integrantes da comunidade universitária (alunos, professores e funcionários) aos rostos de criminosos e contraventores fichados. A análise retornou nada menos que 58 falsos positivos. A maior parte dessas respostas erradas ocorreu na avaliação de rostos de pessoas não-brancas.

Na experiência, a ONG usou um software da Amazon chamado Rekognition. Em um dos casos, a ferramenta afirmou que havia 100% de chance de os rostos comparados serem da mesma pessoa, mas eram apenas dois homens negros de barba, bem diferentes um do outro.

A desistência foi comunicada à ONG pelo vice-reitor administrativo, Michael Beck. Assim, a UCLA se une a um grupo de mais de 50 universidades nos EUA que se compromete a não usar reconhecimento facial, incluindo MIT, Harvard, Brown e Columbia.

Preconceitos raciais são um problema recorrente nos software de reconhecimento facial e nas inteligências artificiais que se propõem a reconhecer pessoas. O reconhecimento de homens de pele clara é muito mais preciso do que os de outros grupos. Isso ficou demonstrado em diversos experimentos, incluindo os do projeto Gender Shades, conduzido desde 2018 pelo MIT Media Lab.


Fonte: https://epocanegocios.globo.com/Tecnologia/noticia/2020/02/racismo-em-i-leva-universidade-desistir-de-reconhecimento-facial-no-campus.html


Comentários da notícia