Home Tecnologia Um novo modelo chinês de geração de vídeos parece estar censurando tópicos...

Um novo modelo chinês de geração de vídeos parece estar censurando tópicos politicamente sensíveis

16
0
Kling IA

Um novo e poderoso modelo de IA para geração de vídeos tornou-se amplamente disponível hoje — mas há um porém: o modelo parece estar censurando tópicos considerados politicamente sensíveis demais pelo governo de seu país de origem, a China.

O modelo, Klingdesenvolvido pela empresa Kuaishou, sediada em Pequim, foi lançado em acesso em lista de espera no início do ano para usuários com um número de telefone chinês. Hoje, foi lançado para qualquer um disposto a fornecer seu e-mail. Após se inscrever, os usuários podem inserir prompts para que o modelo gere vídeos de cinco segundos do que eles descreveram.

O Kling funciona praticamente como anunciado. Seus vídeos de 720p, que levam um ou dois minutos para serem gerados, não se desviam muito dos prompts. E o Kling parece simular física, como o farfalhar das folhas e água corrente, tão bem quanto modelos de geração de vídeo como o Gen-3 da startup de IA Runway e o Sora da OpenAI.

Mas Kling abertamente não vai gerar clipes sobre certos assuntos. Prompts como “Democracia na China”, “Presidente chinês Xi Jinping andando pela rua” e “Protestos na Praça da Paz Celestial” produzem uma mensagem de erro não específica.

Créditos da imagem: Kuaishou

A filtragem parece estar acontecendo apenas no nível do prompt. O Kling suporta animação de imagens estáticas, e ele gerará sem reclamar um vídeo de um retrato de Jinping, por exemplo, desde que o prompt que o acompanha não mencione Jinping pelo nome (por exemplo, “Este homem dando um discurso”).

Entramos em contato com Kuaishou para comentar.

Kling IA
Créditos da imagem: Kuaishou

O comportamento curioso de Kling é provavelmente resultado da intensa pressão política do governo chinês sobre projetos de IA generativa na região.

No início deste mês, o Financial Times relatado que os modelos de IA na China serão testados pelo principal regulador da internet da China, a Administração do Ciberespaço da China (CAC), para garantir que suas respostas sobre tópicos sensíveis “incorporem valores socialistas essenciais”. Os modelos serão avaliados por funcionários da CAC por suas respostas a uma variedade de perguntas, de acordo com a reportagem do Financial Times — muitas relacionadas a Jinping e críticas ao Partido Comunista.

Alegadamenteo CAC chegou ao ponto de propor uma lista negra de fontes que não podem ser usadas para treinar modelos de IA. Empresas que enviam modelos para revisão deve preparar dezenas de milhares de perguntas projetadas para testar se os modelos produzem respostas “seguras”.

O resultado são sistemas de IA que se recusam a responder sobre tópicos que podem despertar a ira dos reguladores chineses. No ano passado, a BBC encontrado que Ernie, o modelo de chatbot de IA da empresa chinesa Baidu, hesitou e desviou quando lhe foram feitas perguntas que poderiam ser percebidas como politicamente controversas, como “É Xinjiang um bom lugar?” ou “É Tibet um bom lugar?”

As políticas draconianas ameaçam lento A IA da China avança. Ela não só exige a varredura de dados para remover informações politicamente sensíveis, mas também exige investir uma quantidade enorme de tempo de desenvolvimento na criação de barreiras ideológicas — barreiras que ainda podem falhar, como Kling exemplifica.

Da perspectiva do utilizador, os regulamentos de IA da China já estão a conduzir a duas classes de modelos: alguns limitados pela filtragem intensiva e outros decididamente menos. Isso é realmente algo bom para o ecossistema de IA mais amplo?

Source