Nenhuma solução perfeita para criação de perfil de plataforma sob a Lei de Serviços Digitais

blog

LarLar / blog / Nenhuma solução perfeita para criação de perfil de plataforma sob a Lei de Serviços Digitais

Jun 29, 2023

Nenhuma solução perfeita para criação de perfil de plataforma sob a Lei de Serviços Digitais

Jesse McCrosky é chefe de tecnologia responsável da Thoughtworks para a Finlândia e principal cientista de dados. Claire Pershan é líder de defesa da UE na Fundação Mozilla. Os reguladores na Europa exigem

Jesse McCrosky é chefe de tecnologia responsável da Thoughtworks para a Finlândia e principal cientista de dados. Claire Pershan é líder de defesa da UE na Fundação Mozilla.

Os reguladores na Europa exigem que as plataformas proporcionem maior transparência e controlo dos utilizadores sobre a criação de perfis para sistemas de recomendação, incluindo aqueles direcionados à publicidade. A Lei dos Serviços Digitais (DSA) da UE estabelece regras para aumentar a transparência da publicidade e para dar aos utilizadores mais informações e controlo sobre as suas recomendações de conteúdo. Muitos dos requisitos da DSA para as maiores plataformas online e mecanismos de pesquisa entram em vigor em 25 de agosto, e os anúncios relacionados à conformidade dos serviços designados já estão sendo lançados.

Esses requisitos foram duramente combatidos por especialistas em privacidade e responsabilidade de plataforma durante as negociações sobre o DSA. Agora, o próximo desafio é a implementação significativa pelas plataformas. No entanto, isto pode não ser simples, uma vez que por trás das recomendações direcionadas estão modelos de aprendizagem automática que dependem de “criação de perfis”. Estes sistemas são concebidos para discriminar entre utilizadores e podem, de facto, produzir “inferências não intencionais” que são difíceis de mitigar, tornando a conformidade um desafio.

Para compreender esses requisitos, precisamos compreender melhor as nuances de como o conteúdo é direcionado; a segmentação de anúncios é um exemplo ilustrativo que também nos ajudará a entender o conteúdo orgânico. Geralmente podemos pensar em anúncios direcionados em duas camadas (veja A discriminação inerente à microssegmentação):

Esta primeira camada de segmentação pode ser limitada a parâmetros de segmentação bastante grosseiros. No entanto, a segunda camada geralmente utilizará todos os dados que a plataforma tem disponíveis – um perfil detalhado de cada usuário – com base em curtidas, histórico de navegação e quaisquer outros dados que a plataforma tenha conseguido capturar.

Esta segunda camada é conhecida como microssegmentação. O conteúdo não publicitário (ou “conteúdo orgânico”) também é tipicamente microssegmentado – por exemplo, o Facebook pode exibir postagens de seus amigos que você provavelmente “gostará”, e o YouTube pode recomendar os vídeos que prevê que você provavelmente gastará o a maior parte do tempo assistindo.

Para fornecer transparência na segmentação de anúncios, conforme exigido pelo DSA, é bastante simples fornecer informações sobre a primeira camada: isso provavelmente equivale às características que o anunciante escolheu atingir. No entanto, como veremos a seguir, a segunda camada também influencia os tipos de usuários que verão um anúncio. Mesmo sem o conhecimento direto do anunciante ou da plataforma, podem ocorrer certas inferências não intencionais, produzindo uma espécie de discriminação automatizada. Por esta razão, também é muito difícil evitar a segmentação de acordo com características específicas.

Isto tem implicações para as obrigações de DSA relacionadas com a personalização, especialmente o Artigo 26, que exige explicações aos utilizadores sobre a segmentação dos seus anúncios e proíbe a segmentação com base em dados pessoais sensíveis. Há uma série de interpretações, mas parece razoável esperar que, se um anúncio for mostrado principalmente a utilizadores de um determinado género, ou etnia, ou orientação política, essas características constituam “parâmetros principais” e devam, portanto, ser divulgadas, mesmo que não há intenção do anunciante ou da plataforma de tomar essa decisão de segmentação.

Na verdade, é possível que um anúncio seja exibido involuntariamente direcionado aos usuários com base em suas características pessoais. Isto é possível por causainferências não intencionais.

Uma inferência não intencional é um caso em que um sistema de recomendação pode recomendar conteúdos diferentes para diferentes grupos sociodemográficos ou definidos de outra forma. Para simplificar, chamaremos isso de discriminação e usaremos gênero como exemplo de agrupamento. Estas inferências não intencionais ocorrem sem que a plataforma tenha quaisquer dados sobre o género dos seus utilizadores e, principalmente, sem ter qualquer forma de saber que a discriminação está a ocorrer. O sistema pode discriminar com base no género sem conhecer o género de um único utilizador.