CEO responsável por reconhecimento facial na Fonte Nova rebate críticas sobre racismo algorítmico: ‘Coisa do passado’
Segundo Ricardo Cadar, tecnologia atual diminiu a taxa de erros e não mais apresenta incongruência em relação a grupos sociais.
Créditos da foto: Edimário Duplat/Aratu On
Em meio ao aumento do uso da tecnologia do reconhecimento facial em eventos esportivos e culturais, é crescente também o relato do chamado “racismo algorítmico”, que demonstra incongruências em relação à identificação de alguns grupos sociais de raça e gênero.
Entretanto, para Ricardo Cadar - CEO da Bypass - este tipo de incongruência não existe mais em relação à nova tecnologia utilizada pela empresa, que será implementada na Arena Fonte Nova em novembro deste ano.
“No passado, existia uma preocupação em relação a isso, hoje em dia não mais. A tecnologia evoluiu bastante. Então a gente não vê isso em muitos lugares. Nós estamos em mais de dez estádios no Brasil. A gente tinha uma certa noção em relação à tecnologia, mas hoje isso está totalmente igual”, afirmou o empresário para o Aratu On.
Ainda segundo Cadar, o que difere a atual tecnologia do que existia no passado é a utilização do foco nos pontos ósseos, o que seria um método mais preciso, que consegue manter a identidade mesmo com mudanças expressivas de peso ou idade no individuo.
“O número de acertos no reconhecimento hoje tem sido na faixa de 98%, e não encontramos problemas relacionados a esta questão atualmente”, reforçou.
Apesar dos números de alto acerto citados pelo CEO, pesquisas recentes demonstram conflitos significativos em relação à população negra, principalmente mulheres. Além disso, com a Lei Geral de Proteção de Dados, o uso e o armazenamento destas imagens pelas empresas têm sido alvos de questionamentos.
Um estudo publicado em 2018 revelou que os algoritmos de reconhecimento facial analisados apresentam taxas de erro significativamente mais altas para mulheres negras, atingindo 34,7%. Quando se trata de homens brancos, o erro máximo registrado foi de apenas 0,8%.
Em abril deste ano, um caso de erro de identificação aconteceu na final do Campeonato Sergipano e repercutiu por todo o Brasil. Nele, um torcedor do Confiança foi detido por engano devido a uma falha no sistema de reconhecimento facial, que o confundiu com um criminoso. Após ter sido abordado por cinco policiais e levado à delegacia do estádio, o homem teve a identidade verificada e o erro foi percebido, causando constrangimento à vítima.
Um dos exemplos mais marcantes deste ano sobre os riscos do processo foi a não-utilização da tecnologia nos Jogos Olímpicos de Paris 2024. Na ocasião, o senado francês decidiu que as incongruências do serviço destoavam entre grupos étnicos distintos e resolveu evitá-lo para a competição internacional.
No Brasil, a Lei Geral do Esporte prevê que todos os estádios brasileiros tenham pelo menos 20% da capacidade total com o uso do reconhecimento facial para o controle de acessos dos torcedores. O prazo de adoção da tecnologia é até junho de 2025.
Acompanhe nossas transmissões ao vivo no www.aratuon.com.br/aovivo. Siga a gente no Insta, Facebook, Twitter e Bluesky Envie denúncia ou sugestão de pauta para (71) 99940 – 7440 (WhatsApp).
Entretanto, para Ricardo Cadar - CEO da Bypass - este tipo de incongruência não existe mais em relação à nova tecnologia utilizada pela empresa, que será implementada na Arena Fonte Nova em novembro deste ano.
“No passado, existia uma preocupação em relação a isso, hoje em dia não mais. A tecnologia evoluiu bastante. Então a gente não vê isso em muitos lugares. Nós estamos em mais de dez estádios no Brasil. A gente tinha uma certa noção em relação à tecnologia, mas hoje isso está totalmente igual”, afirmou o empresário para o Aratu On.
Ainda segundo Cadar, o que difere a atual tecnologia do que existia no passado é a utilização do foco nos pontos ósseos, o que seria um método mais preciso, que consegue manter a identidade mesmo com mudanças expressivas de peso ou idade no individuo.
“O número de acertos no reconhecimento hoje tem sido na faixa de 98%, e não encontramos problemas relacionados a esta questão atualmente”, reforçou.
Apesar dos números de alto acerto citados pelo CEO, pesquisas recentes demonstram conflitos significativos em relação à população negra, principalmente mulheres. Além disso, com a Lei Geral de Proteção de Dados, o uso e o armazenamento destas imagens pelas empresas têm sido alvos de questionamentos.
Um estudo publicado em 2018 revelou que os algoritmos de reconhecimento facial analisados apresentam taxas de erro significativamente mais altas para mulheres negras, atingindo 34,7%. Quando se trata de homens brancos, o erro máximo registrado foi de apenas 0,8%.
Em abril deste ano, um caso de erro de identificação aconteceu na final do Campeonato Sergipano e repercutiu por todo o Brasil. Nele, um torcedor do Confiança foi detido por engano devido a uma falha no sistema de reconhecimento facial, que o confundiu com um criminoso. Após ter sido abordado por cinco policiais e levado à delegacia do estádio, o homem teve a identidade verificada e o erro foi percebido, causando constrangimento à vítima.
Um dos exemplos mais marcantes deste ano sobre os riscos do processo foi a não-utilização da tecnologia nos Jogos Olímpicos de Paris 2024. Na ocasião, o senado francês decidiu que as incongruências do serviço destoavam entre grupos étnicos distintos e resolveu evitá-lo para a competição internacional.
No Brasil, a Lei Geral do Esporte prevê que todos os estádios brasileiros tenham pelo menos 20% da capacidade total com o uso do reconhecimento facial para o controle de acessos dos torcedores. O prazo de adoção da tecnologia é até junho de 2025.
Acompanhe nossas transmissões ao vivo no www.aratuon.com.br/aovivo. Siga a gente no Insta, Facebook, Twitter e Bluesky Envie denúncia ou sugestão de pauta para (71) 99940 – 7440 (WhatsApp).