Home Notícias O Conselho de Supervisão da Meta diz que as políticas de deepfake...

O Conselho de Supervisão da Meta diz que as políticas de deepfake precisam ser atualizadas e que a resposta à imagem explícita ficou aquém

17
0

As políticas da Meta sobre imagens deepfake não consensuais precisam ser atualizadas, incluindo uma redação que “não é suficientemente clara”, disse o painel de supervisão da empresa na quinta-feira em uma decisão sobre casos envolvendo representações explícitas geradas por IA de duas mulheres famosas.

O Conselho de Supervisão quase independente disse que, em um dos casos, a gigante das mídias sociais não removeu a imagem íntima deepfake de uma famosa mulher indiana, que não identificou, até que o conselho de revisão da empresa se envolveu.

Imagens de mulheres e celebridades nuas de Deepake, incluindo Taylor Swift proliferaram nas mídias sociais porque a tecnologia usada para fazê-los se tornou mais acessível e fácil de usar. As plataformas online foram enfrentando pressão fazer mais para resolver o problema.

Leia também: Em breve você poderá obter filtros faciais 3D semelhantes aos do Snapchat neste aplicativo do Google. Aqui está o que sabemos até agora

O conselho que a Meta criou em 2020 para servir como árbitro de conteúdo em suas plataformas, incluindo Facebook e Instagram, passou meses revisando os dois casos envolvendo imagens geradas por IA retratando mulheres famosas, uma indiana e uma americana. O conselho não identificou nenhuma das mulheres, descrevendo cada uma apenas como uma “figura pública feminina”.

A Meta disse que acolheu as recomendações do conselho e as está revisando.

Um caso envolveu uma “imagem manipulada por IA” publicada no Instagram retratando uma mulher indiana nua mostrada de costas com o rosto visível, parecendo uma “figura pública feminina”. O conselho disse que um usuário denunciou a imagem como pornografia, mas o relatório não foi revisado dentro de um prazo de 48 horas, então foi fechado automaticamente. O usuário entrou com um recurso no Meta, mas também foi fechado automaticamente.

Leia também: Google integra o modelo codestral da Mistral AI: O que é e como ele ajudará os desenvolvedores?

Somente quando o usuário apelou ao Conselho de Supervisão é que a Meta decidiu que sua decisão original de não remover a publicação foi um erro.

O Meta também desabilitou a conta que postou as imagens e as adicionou a um banco de dados usado para detectar e remover automaticamente imagens que violam suas regras.

No segundo caso, uma imagem gerada por IA retratando mulheres americanas nuas e sendo apalpadas foi postada em um grupo do Facebook. Elas foram removidas automaticamente porque já estavam no banco de dados. Um usuário apelou da remoção ao conselho, mas ele manteve a decisão do Meta.

O conselho disse que ambas as imagens violavam a proibição da Meta sobre “photoshop sexualizado depreciativo” de acordo com sua política de intimidação e assédio.

No entanto, ele acrescentou que a formulação de sua política não era clara para os usuários e recomendou a substituição da palavra “depreciativo” por um termo diferente, como “não consensual”, especificando que a regra abrange uma ampla gama de técnicas de edição e manipulação de mídia que vão além do “photoshop”.

Leia também: O WhatsApp pode em breve ter um recurso de compartilhamento semelhante ao do Instagram e a capacidade de mencionar contatos em atualizações de status

Imagens de nudez deepfake também devem se enquadrar nos padrões da comunidade sobre “exploração sexual adulta” em vez de “bullying e assédio”, disse.

Quando o conselho questionou a Meta sobre o motivo pelo qual a mulher indiana ainda não estava em seu banco de dados de imagens, ficou alarmado com a resposta da empresa de que ela se baseava em reportagens da mídia.

“Isso é preocupante porque muitas vítimas de imagens íntimas deepfake não estão sob os olhos do público e são forçadas a aceitar a disseminação de suas representações não consensuais ou a procurar e denunciar cada ocorrência”, disse o conselho.

O conselho também disse estar preocupado com o “encerramento automático” de apelações por abuso sexual baseado em imagens pela Meta após 48 horas, dizendo que isso “poderia ter um impacto significativo nos direitos humanos”.

A Meta, então chamada de Facebook, lançou o Oversight Board em 2020 em resposta às críticas de que não estava se movendo rápido o suficiente para remover desinformação, discurso de ódio e campanhas de influência de suas plataformas. O conselho tem 21 membros, um grupo multinacional que inclui acadêmicos jurídicos, especialistas em direitos humanos e jornalistas.

Source link