Segundo o The Guardian, o Facebook direciona anúncios sobre apostas à crianças
11 outubro, 2019
O Facebook marcou centenas de milhares de crianças como anúncios “interessados em” jogos de azar e álcool, segundo uma investigação conjunta do The Guardian e da Danish Broadcasting Corporation.
As ferramentas de publicidade da Rede Social revelam que 740.000 crianças com menos de 18 anos são sinalizadas como interessadas em jogar, incluindo 130.000 no Reino Unido.
Cerca de 940.000 menores – 150.000 britânicos – são sinalizados como interessados em bebidas alcoólicas.
Esses “interesses” são gerados automaticamente pelo Facebook, com base no que aprendeu sobre um usuário, monitorando sua atividade na Rede Social.
Os anunciantes podem usá-los para direcionar mensagens especificamente para subgrupos que foram sinalizados como interessados no tópico.
Em um comunicado, o Facebook afirmou: “Não permitimos anúncios que promovam a venda de álcool ou jogos de azar a menores no Facebook e nos aplicamos contra essa atividade quando a encontramos. Também trabalhamos em estreita colaboração com os Reguladores para fornecer orientação aos profissionais de marketing para ajudá-los a atingir seus públicos de forma eficaz e responsável. ”
A empresa permite que os anunciantes segmentem especificamente mensagens para crianças com base em seu interesse em álcool ou jogos de azar. Um membro do Facebook deu o exemplo de um serviço anti-jogo que pode querer alcançar crianças que potencialmente têm um problema de jogo e oferecer-lhes ajuda e apoio.
Mas os anunciantes também podem segmentar os interesses para outros fins. Os desenvolvedores de um videogame explorador com a mecânica lucrativa de “loot boxes”, por exemplo, poderiam direcionar seus anúncios para crianças interessadas em jogar sem violar nenhuma das regras do Facebook.
A presença de interesses automatizados também significa que os anunciantes de álcool e jogos de azar que tentam evitar as regras do Facebook sobre publicidade para crianças têm um público já selecionado para eles pela Rede Social.
O Facebook conta principalmente com a revisão automatizada para sinalizar anúncios que violam suas políticas. Mas não é garantido que a revisão automática encontre violações antes que os anúncios comecem a ser exibidos. O Facebook recentemente foi alvo de uma ação judicial do especialista financeiro Martin Lewis pelo fracasso de longo prazo da empresa em manter sua imagem fora dos anúncios fraudulentos.
A categorização automática de usuários do Facebook já foi criticada antes. Em maio de 2018, verificou-se que a Rede Social estava alvejando usuários que julgavam interessados em assuntos como homossexualidade, islamismo ou liberalismo, apesar de religião, sexualidade e crenças políticas serem explicitamente marcadas como “informações confidenciais” pelas leis de proteção de dados do GDPR da UE. .
Um mês depois, o The Guardian e o DBC descobriram que a Rede Social havia rotulado algoritmicamente 65.000 russos como “interessados em traição”, potencialmente colocando-os em risco pelo estado repressivo. O Facebook removeu o rótulo após investigações do Guardian.
O desejo do Facebook de oferecer o máximo de informações possível aos anunciantes para a segmentação de consumidores levou repetidamente a problemas relacionados à capacidade dos anunciantes de usar indevidamente esses dados de segmentação de maneiras geralmente limítrofes ou ilegais.
Em março, o Departamento de Habitação e Desenvolvimento Urbano dos EUA acusou o Facebook de violar a Fair Housing Act, argumentando que os recursos de segmentação do site permitiam que os anunciantes restringissem os anúncios de moradias de uma maneira que “discrimina ilegalmente com base em raça, cor, origem nacional, religião, status familiar, sexo e deficiência ”.
O Facebook disse na época que trabalharia com o departamento e grupos de direitos civis para melhorar seus sistemas de segmentação de anúncios.
Fonte: The Guardian