“Dirty Pop: The Boy Band Scam” da Netflix não é o primeiro documentário a narrar os crimes do golpista/empresário musical Louis Pearlman, que financiou boy bands ultrapopulares dos anos 90, como os Backstreet Boys e NSYNC. Antes que o esquema Ponzi de longa duração de Pearlman fosse exposto, ele era visto como um empresário ambicioso que conduzia a indústria de boy bands a novos patamares — até que, é claro, as paredes do engano desabaram. Não é de se surpreender que Netflix lançaria um documentário sobre um golpista infame que acumulou dívidas de mais de US$ 300 milhões. No entanto, é estranho que os produtores tenham optado por usar IA para replicação de voz e imagem do falecido Pearlman para criar filmagens manipuladas, que foram enfiadas entre evidências de arquivo apoiadas por pesquisas e entrevistas ricas em contexto espalhadas por todo o documentário.
O uso de IA para criar a filmagem alterada é divulgado antecipadamente. Na verdade, o primeiro episódio abre com uma filmagem de arquivo genuína de Pearlman sentado em sua mesa, mas logo o ouvimos falando e se dirigindo à câmera. É quando o documentário revela que a filmagem “foi alterada digitalmente para gerar sua voz e sincronizar seus lábios”, onde as palavras proferidas foram retiradas diretamente do livro de Pearlman “Bands, Brands, & Billions”. Pearlman continua a “falar” por meio dessa filmagem alterada por IA ao longo de três episódios, evocando um efeito de vale misterioso que não parece justificado nem um pouco.
Isso não impediu que a série documental sentado em primeiro lugar na lista dos 10 melhores programas de TV dos EUA da Netflix. No entanto, as implicações do uso da IA — tanto as divulgadas como as não divulgadas — num meio narrativo que depende da verificação objectiva de factos e de provas corroboradas estabelece um precedente perigoso que não deve ser ignorado. Vamos dar uma olhada no que os produtores de “Dirty Pop: The Boy Band Scam” têm a dizer sobre o assunto.
How Dirty Pop: The Boy Band Scam usou filmagens alteradas por IA
Um dos coprodutores executivos da série documental, Michael Johnson, falou com Netflix TUDUM para explicar como os produtores estavam “animados para inovar com novas tecnologias” para contar essa história importante “da maneira mais ética possível”:
“Primeiramente, queríamos utilizar essa nova tecnologia da forma mais ética possível como uma ferramenta de narrativa aditiva, não como uma ferramenta de substituição de qualquer tipo. Garantimos os direitos de vida de Lou; usamos apenas palavras escritas pelo próprio Lou; contratamos um ator para entregar essas palavras; usamos filmagens reais de Lou para capturar seus verdadeiros maneirismos e linguagem corporal; e contratamos especialistas em IA do MIT Media Lab, Pinscreen e Resemble AI para executar nossa visão.”
Johnson continuou afirmando que a filmagem alterada pela IA ajudou a estabelecer a realidade subjetiva de Pearlman, o que evocou um contraste com o que suas vítimas vivenciaram, chamando essa justaposição de “essencial para entender Lou como um ser humano e também como um vigarista desonesto”. Embora a intenção aqui pareça bastante sincera, a introdução de IA generativa para alterar a filmagem existente e simular uma conversa — que poderia ter sido facilmente transmitida por meio de narração citada ou encenação dramatizada — parece um grande erro.
Além disso, isto é não é a primeira vez que uma série documental sobre crimes reais da Netflix usa IA para evocar um efeito pretendido, estabelecendo uma tendência perturbadora que põe em risco a ética da credibilidade enquanto cria uma imagem distorcida da verdade dentro de um meio que sempre teve como objetivo destilá-la. A subjetividade da verdade só pode ser transmutada em vereditos objetivos com evidências verificadas e testemunhos corroborados, e a presença de IA generativa cria uma ladeira escorregadia para uma prática preocupante de produção cinematográfica criar raízes.