Home Notícias O Partido Trabalhista Britânico enfrenta uma batalha difícil enquanto tenta controlar os...

O Partido Trabalhista Britânico enfrenta uma batalha difícil enquanto tenta controlar os principais participantes da IA

15
0
Europa está em melhor posição em IA agora — mas ainda atrás dos EUA e da China, diz JPMorgan

Um usuário da Internet verifica o ChatGPT em seu celular, Suqian, província de Jiangsu, China, 26 de abril de 2023.

Publicação futura | Publicação futura | Getty Images

LONDRES — A Grã-Bretanha está prestes a apresentar sua primeira lei para inteligência artificial — mas o novo governo trabalhista do primeiro-ministro Keir Starmer enfrenta um delicado equilíbrio entre formular regras que sejam rigorosas o suficiente e, ao mesmo tempo, permitam a inovação.

Em um discurso entregue pelo Rei Carlos III em nome da administração de Starmer, o governo disse na quarta-feira que “buscaria estabelecer a legislação apropriada para impor requisitos àqueles que trabalham para desenvolver os modelos de inteligência artificial mais poderosos”.

Mas o discurso se absteve de mencionar um projeto de lei de IA, o que muitos executivos e comentaristas da indústria de tecnologia esperavam.

Na União Europeia, as autoridades introduziram uma lei abrangente conhecida como Lei de IA que sujeita as empresas que desenvolvem e utilizam inteligência artificial a restrições muito mais rígidas.

Muitas empresas de tecnologia — grandes e pequenas — estão esperançosas de que o Reino Unido não siga o mesmo caminho ao aplicar regras que elas consideram muito pesadas.

Como poderia ser um projeto de lei sobre IA no Reino Unido

Espera-se que o Partido Trabalhista ainda introduza regras formais para IA, conforme o partido estabeleceu em seu manifesto eleitoral.

O governo de Starmer prometeu introduzir “regulamentação vinculativa para o punhado de empresas que desenvolvem os modelos de IA mais poderosos” e legislação que proíbe deepfakes sexualmente explícitos.

Ao mirar nos modelos de IA mais poderosos, o Partido Trabalhista imporia restrições mais rígidas a empresas como a OpenAI, Microsoft, Google, Amazonase startups de IA, incluindo Anthropic, Cohere e Mistral.

“Os maiores players de IA provavelmente enfrentarão mais escrutínio do que antes”, disse Matt Calkins, CEO da empresa de software Appian, à CNBC.

“O que precisamos é de um ambiente propício para uma inovação abrangente, governado por uma estrutura regulatória clara que ofereça oportunidades justas e transparência para todos.”

Lewis Liu, chefe de IA na empresa de software de gerenciamento de contratos Sirion, alertou que o governo deve evitar usar uma “abordagem de martelo amplo para regular cada caso de uso”.

Casos de uso como diagnóstico clínico — que envolvem dados médicos confidenciais — não devem ser colocados no mesmo grupo de coisas como software empresarial, disse ele.

“O Reino Unido tem a oportunidade de acertar essa nuance para o enorme benefício de seu setor de tecnologia”, disse Liu à CNBC. No entanto, ele acrescentou que viu “indicações positivas” sobre os planos trabalhistas para IA até agora.

A legislação sobre IA marcaria um contraste com o antecessor de Starmer. Sob o ex-PM Rishi Sunak, o governo optou por uma abordagem leve à IA, buscando, em vez disso, aplicar regras existentes à tecnologia.

O governo conservador anterior disse em um documento de política de fevereiro que introduzir medidas vinculativas muito cedo poderia “não abordar riscos de forma eficaz, tornar-se rapidamente desatualizada ou sufocar a inovação”.

Em fevereiro, o novo ministro de tecnologia do Reino Unido, Peter Kyle, disse que o Partido Trabalhista tornaria obrigatório, por lei, que as empresas compartilhassem dados de testes sobre a segurança de seus modelos de IA com o governo.

“Nós obrigaríamos por lei que os resultados dos dados dos testes fossem divulgados ao governo”, disse Kyle, então ministro das Finanças, em uma entrevista à BBC na época.

O governo de Sunak havia garantido acordos de empresas de tecnologia para compartilhar informações de testes de segurança com o AI Safety Institute, um órgão apoiado pelo estado que testa sistemas avançados de IA. Mas isso foi feito apenas de forma voluntária.

O risco de anular a inovação

O governo do Reino Unido quer evitar pressionar muito com as regras de IA a ponto de acabar dificultando a inovação. O Partido Trabalhista também sinalizou em seu manifesto que quer “apoiar diversos modelos de negócios que tragam inovação e novos produtos ao mercado”.

Qualquer regulamentação precisaria ser “matizada”, atribuindo responsabilidades “conforme necessário”, disse Zahra Bahrololoumi, CEO da Salesforce no Reino Unido e Irlanda, à CNBC, acrescentando que acolhe com satisfação o apelo do governo por “legislação apropriada”.

Matthew Houlihan, diretor sênior de assuntos governamentais da Cisco, disse que quaisquer regras de IA precisariam ser “centradas em uma abordagem ponderada e baseada em riscos”.

Outras propostas que já foram apresentadas por políticos do Reino Unido oferecem algumas dicas sobre o que pode ser incluído no Projeto de Lei de IA do Partido Trabalhista.

O legislador britânico Chris Holmes, um parlamentar conservador que está na câmara alta do parlamento, apresentou no ano passado um projeto de lei propondo regulamentar a IA. O projeto passou pela terceira leitura em maio, passando para a câmara baixa do Parlamento.

A lei de Holmes teria menos chance de sucesso do que uma proposta pelo governo. No entanto, ela oferece algumas ideias de como o Partido Trabalhista poderia procurar formar sua própria legislação de IA.

O projeto de lei proposto por Holmes inclui a sugestão de criação de uma autoridade centralizada de IA, que supervisionaria a aplicação de regras para a tecnologia.

O novo comitê de segurança e proteção da OpenAI é importante, dado o ritmo da inovação: empresa de dados e IA

As empresas teriam que fornecer à Autoridade de IA dados de terceiros e propriedade intelectual usados ​​no treinamento de seus modelos e garantir que tais dados e propriedade intelectual sejam usados ​​com o consentimento da fonte original.

Isso ecoa, de certa forma, o Escritório de IA da UE, que é responsável por supervisionar o desenvolvimento de modelos avançados de IA.

Outra proposta de Holmes é que as empresas nomeiem executivos individuais de IA, que teriam a tarefa de garantir usos seguros, éticos e imparciais da IA ​​pelas empresas, além de garantir que os dados usados ​​em qualquer tecnologia de IA sejam imparciais.

Como ele pode ser comparado a outros reguladores

Com base no que o Partido Trabalhista prometeu até agora, qualquer lei desse tipo estará inevitavelmente “muito longe do amplo escopo da Lei de IA da UE”, disse Matthew Holman, sócio do escritório de advocacia Cripps, à CNBC.

Holman acrescentou que, em vez de exigir divulgações autoritárias dos fabricantes de modelos de IA, o Reino Unido tem mais probabilidade de encontrar um “meio-termo”. Por exemplo, o governo poderia exigir que as empresas de IA compartilhassem o que estão trabalhando com sessões a portas fechadas do AI Safety Institute, mas sem revelar segredos comerciais ou código-fonte.

O ministro da Tecnologia, Kyle, disse anteriormente na London Tech Week que o Partido Trabalhista não aprovaria uma lei tão rigorosa quanto a Lei de IA porque não quer dificultar a inovação ou impedir investimentos de grandes desenvolvedores de IA.

Mesmo assim, uma lei de IA do Reino Unido seria um passo acima dos EUA, que atualmente não têm legislação federal de IA de nenhum tipo. Na China, enquanto isso, a regulamentação é mais rigorosa do que a UE e qualquer legislação que o Reino Unido provavelmente apresentará.

No ano passado, os reguladores chineses finalizaram as regras que regem a IA generativa com o objetivo de eliminar conteúdo ilegal e aumentar as proteções de segurança.

Liu, da Sirion, disse que uma coisa que ele espera que o governo não faça é restringir os modelos de IA de código aberto. “É essencial que as novas regulamentações de IA do Reino Unido não sufoquem o código aberto ou caiam na armadilha da captura regulatória”, disse ele à CNBC.

“Há uma diferença enorme entre o dano criado por um grande LLM de empresas como a OpenAI e modelos de código aberto específicos e personalizados usados ​​por uma startup para resolver um problema específico.”

Herman Narula, CEO da construtora de empreendimentos de metaverso Improbable, concordou que restringir a inovação de IA de código aberto seria uma má ideia. “Uma nova ação governamental é necessária, mas essa ação deve se concentrar em criar um mundo viável para empresas de IA de código aberto, que são necessárias para evitar monopólios”, disse Narula à CNBC.

Source