Código digital e bandeira chinesa representando a segurança cibernética na China.
Anton Petrus | Momento | Getty Images
As empresas de IA na China estão passando por uma revisão governamental de seus grandes modelos de linguagem, com o objetivo de garantir que eles “incorporem valores socialistas essenciais”, de acordo com um relatório pelo Financial Times.
A revisão está sendo realizada pela Administração do Ciberespaço da China (CAC), o principal regulador da Internet do governo, e cobrirá participantes de todo o espectro, desde gigantes da tecnologia como ByteDance e Alibaba para pequenas startups.
Os modelos de IA serão testados por autoridades locais do CAC para suas respostas a uma variedade de perguntas, muitas relacionadas a tópicos politicamente sensíveis e ao presidente chinês Xi Jinping, disse o FT. Os dados de treinamento e os processos de segurança do modelo também serão revisados.
Uma fonte anônima de uma empresa de IA sediada em Hangzhou que falou com o FT disse que seu modelo não passou na primeira rodada de testes por razões pouco claras. Eles só passaram na segunda vez depois de meses de “adivinhar e ajustar”, disseram no relatório.
Os últimos esforços do CAC ilustram como Pequim tem caminhado na corda bamba entre alcançando os EUA no GenAI ao mesmo tempo em que mantém um olhar atento sobre o desenvolvimento da tecnologia, garantindo que o conteúdo gerado pela IA esteja de acordo com suas censura rigorosa na internet políticas.
O país foi um dos primeiros a finalizar regras que regem a inteligência artificial generativa no ano passado, incluindo a exigência de que os serviços de IA respeitem os “valores fundamentais do socialismo” e não gerem conteúdo “ilegal”.
Atender às políticas de censura exige “filtragem de segurança”, o que se tornou mais complicado porque os LLMs chineses ainda são treinados em uma quantidade significativa de conteúdo em inglês, disseram vários engenheiros e especialistas do setor ao FT.
De acordo com o relatório, a filtragem é feita removendo “informações problemáticas” dos dados de treinamento do modelo de IA e, em seguida, criando um banco de dados de palavras e frases sensíveis.
Segundo relatos, as regulamentações levaram os chatbots mais populares do país a se recusarem a responder perguntas sobre tópicos delicados, como os protestos da Praça da Paz Celestial em 1989.
No entanto, durante os testes do CAC, há limites no número de perguntas que os LLMs podem recusar imediatamente, então os modelos precisam ser capazes de gerar “respostas politicamente corretas” para perguntas delicadas.
Um especialista em IA que trabalha em um chatbot na China disse ao FT que é difícil evitar que os LLMs gerem todo o conteúdo potencialmente prejudicial, então eles criam uma camada adicional no sistema que substitui respostas problemáticas em tempo real.
Os regulamentos, bem como as sanções dos EUA que restringiram o acesso aos chips usados para treinar LLMs, dificultaram a vida das empresas chinesas para lançar seus próprios serviços semelhantes ao ChatGPT. A China, no entanto, domina a corrida global em patentes de IA generativas.