A Inteligência Artificial é um tema em alta atualmente, e nem sempre por razões positivas. Enquanto o avanço tecnológico incessante nos oferece soluções baseadas em IA para descobertas científicas e médicas, o surgimento da ‘IA Generativa’—onde modelos de texto, áudio, vídeo e imagem coletam conteúdo criado por humanos e geram resultados surpreendentemente semelhantes em segundos—apresenta um futuro menos atraente. Nesse cenário, a criatividade humana é negligenciada em prol de um conteúdo que mais parece um “copiar e colar”, muitas vezes baseado em obras reproduzidas sem autorização dos criadores originais.
Uma das principais potências nesse campo é a OpenAI, que desenvolve o modelo ChatGPT. Dependendo de quem você perguntar e do dia da semana, ChatGPT conta com entre 500 milhões a 1 bilhão de usuários ativos semanalmente, o que demonstra o quão rapidamente esse chatbot de IA se integrou à vida das pessoas.
Pessoalmente, tenho me tornado algo como um Luddite em relação à IA, em grande parte porque estou consciente das ameaças que Modelos de Linguagem de Grande Escala (LLMs), como o ChatGPT, representam para o jornalismo. Para ser honesto, não sou um usuário frequente de IA—pelo menos, não da forma que algumas pessoas fazem hoje em dia. Eu utilizo o Grammarly para ajudar na minha escrita (principalmente correção ortográfica e gramatical), e ocasionalmente usei IA para aprimorar artes e ativos de jogos antigos (com resultados tão inconsistentes que muitas vezes nem me dou ao trabalho de usá-los). No geral, me tornei crítico dessa tecnologia, ciente do perigo que esses modelos representam.
Contudo, eu não tinha plena noção da extensão a que empresas como a OpenAI estão indo para devastar a palavra escrita. E o mais trágico é que algumas editoras estão ativamente contribuindo para essa destruição. Já sabia que o ChatGPT é capaz de traduzir artigos inteiros do japonês para o inglês, mas recentemente um amigo em comum me mostrou um passo além nesse processo: o ChatGPT realmente incentiva a formatação de artigos traduzidos para publicação profissional, chegando a citar exemplos temáticos.
Em um exemplo prático, peguei um artigo do Hatena Blog sobre o título Space Harrier, que foi removido da lista de clássicos do Sega CD. Como pode ser visto no registro de chat, o ChatGPT inicialmente traduziu o texto para o inglês. Até aí, tudo bem, certo? Afinal, isso não está muito distante do que eu faria com o Google Tradutor. A situação se complicou no final da tradução, quando o ChatGPT—de maneira totalmente não solicitada—ofereceu-se para reformatar o texto (um artigo protegido por direitos autorais escrito por outra pessoa, lembre-se) para “um site ou revista específicos”, citando Kotaku e a revista Retro Gamer como exemplos.
Note a minha resposta: eu não aprovei a reformatação, mas o ChatGPT produziu um artigo no estilo da Retro Gamer mesmo assim. O mais perturbador é que ele deixou o nome do autor em branco, sugerindo que eu inserisse meu próprio nome e reivindicasse o crédito pelo artigo—baseado, como não podemos esquecer, no trabalho do Hatena Blog. Em resumo, os “prompts” limitados que me levaram até esse ponto não mencionaram nada sobre preparar o artigo traduzido para publicação—isso foi tudo iniciativa do ChatGPT—e ainda assim ele espera que eu assine o texto como se fosse meu.
Em seguida, o ChatGPT sugere alegremente que talvez eu quisesse que o texto fosse formatado para um layout impresso, e pergunta se há outros artigos que eu gostaria de formatar nesse estilo. Perguntei novamente se um layout impresso seria possível. Sem esperar minha confirmação, o ChatGPT produziu o artigo “reformatado para imitar o estilo de layout impresso da Retro Gamer, incluindo caixas de destaque, legendas, citações e uma barra lateral”. Ele até preservou a estrutura da revista: uma introdução a uma matéria, subtítulos claros, barras laterais amigáveis e toques de nostalgia que os leitores da Retro Gamer gostam.
Enquanto a maioria de nós percebe quando um limite está sendo ultrapassado, ainda existem muitos que aproveitam a oportunidade para enviar um artigo gerado por IA para um site ou revista, especialmente quando o processo parece estar dentro das normas. Como editor, já vi propostas geradas por IA chegarem por e-mail, e conheço outros editores que passaram pela mesma experiência. Certamente, pode-se argumentar que o ChatGPT não está dizendo explicitamente que eu deveria considerar submeter esse artigo a uma publicação profissional visando lucro, mas a implicação é clara para mim.
O fato de a Retro Gamer e a EDGE serem citadas como exemplos pelo ChatGPT não deveria ser uma surpresa. Em 2024, a Future formou uma “parceria estratégica” com a OpenAI para levar “o jornalismo da Future a novas audiências, ao mesmo tempo em que melhora a experiência do ChatGPT”. O CEO da Future parecia satisfeito com o acordo, afirmando que isso ajudaria os usuários a se conectarem com o vasto portfólio de mais de 200 publicações da empresa. “O ChatGPT proporciona uma nova maneira de as pessoas descobrirem nosso incrível conteúdo especializado”, disse ele.
Firmar um contrato de licenciamento de conteúdo com a OpenAI é como cobrar alguém $10 por mês pela permissão para saquear sua casa. É compreensível que as editoras estejam em pânico—um “internet zero-click” já está ocorrendo. Empresas como a Future podem ser vistas tentando lucrar com o fato de que seu conteúdo está sendo explorado para o ganho financeiro de companhias como a OpenAI, e, na situação atual, pouco podem fazer para impedir isso.
Me pergunto, então, se Steinberg—ou as milhares de pessoas que trabalham sob sua direção—estão confortáveis com o fato de que o ChatGPT está encorajando seus usuários a utilizar conteúdo do qual não têm direitos para criar artigos fraudulentos que poderiam ser apresentados às próprias publicações como peças para pagamento. É verdade que, em um momento durante o chat, fui questionado se gostaria de “criar um mock-up” de uma zine no estilo da Retro Gamer, mas, dado o modo como o ChatGPT formula suas respostas (“formatado adiante para layout impresso”), não há um aviso suficiente para evitar que usuários desonestos apresentem isso como seu próprio trabalho—ou, se você for otimista, que editoras simplesmente usem o ChatGPT e eliminem o intermediário. Talvez a Future tenha um olho voltado para o futuro dos meios de comunicação, um futuro onde os humanos não são necessários.
E há a questão delicada de quais dados a OpenAI está utilizando para treinar o ChatGPT. Como todos sabemos, LLMs são tão boas quanto as informações que consomem, mas com a internet como um terreno aberto, não é surpreendente saber que eles se tornaram muito eficientes, muito rapidamente. A maioria dos criativos não está satisfeita com a ideia de a IA coletar suas obras, potencialmente colocando-os fora do mercado, e buscam proteger seus direitos autorais. Assim, empresas como OpenAI, Meta e Google precisam ser mais transparentes quanto a seus dados de treinamento. No entanto, no caso da Future, há outra área cinza a considerar; ela fez um acordo que pressupõe que a OpenAI pode treinar em todo o conteúdo do catálogo da Future—including (e escrever isso me causa um certo mal-estar) matérias que escrevi para a Retro Gamer na última década. A OpenAI está, de certa forma, usando legalmente minhas próprias palavras para me tornar redundante.
Um mundo em que a IA é usada para criar conteúdo já está em andamento, mas não é um cenário que devemos desejar. Desde listas de livros recomendados que nunca foram escritos até a IA do Google relatando erroneamente a marca e o modelo do avião envolvido no recente desastre aéreo na Índia, a IA simplesmente não pode ser confiável no momento. Existe uma sensação geral de que, quanto mais poderosos esses modelos se tornam, mais eles “alucinam”. A única admissão de que o chatbot da OpenAI não deve ser totalmente confiável é a quase microscópica mensagem “ChatGPT pode cometer erros” na parte inferior da tela.
Não é irracional prever um tempo em que editores de revistas e sites publiquem, regularmente e sem querer, artigos plagiados gerados por IA que desafiam as leis de direitos autorais e estão cheios de imprecisões e falsidades. Enquanto um autor humano pode ser confiável com base em sua reputação e relacionamento com a publicação ou editor, o texto gerado por IA corre o risco de desinformar os leitores, levando a um mundo onde nada pode ser totalmente confiável sem uma edição e verificação de fatos extremas.
Em suma, a IA Generativa parece mais uma solução para aqueles que não têm talento do que um meio de substituir autores humanos por conteúdo superior, e pode, de fato, criar mais trabalho para editores e um padrão de jornalismo inferior—sem contar que é inaceitavelmente exploratório e altamente duvidoso do ponto de vista dos direitos autorais. Se tudo isso soa um tanto apocalíptico, é importante observar que, apesar da disposição da Future e de outras editoras em se associar aos seus agressores, algumas empresas estão tentando reagir. O New York Times está envolvido em uma batalha legal contra a OpenAI desde 2023, e no início deste ano, o proprietário da IGN, Ziff Davis, entrou com ações semelhantes contra a empresa. (Para total transparência, a Ziff Davis tem uma participação minoritária na editora Hookshot Media, da Time Extension). No entanto, a ação mais dramática contra a IA Generativa ocorreu recentemente, quando a Disney e a Universal anunciaram que estão processando a ferramenta de imagens AI Midjourney, citando-a como um “poço sem fundo de plágio”. A Getty também está processando a Stability AI em um caso que muitos advogados afirmam que pode ter consequências significativas para o direito da IA.
Como esses casos legais se desenrolam terá um impacto considerável sobre como a IA Generativa será regulamentada e restringida nos próximos anos; a rápida evolução da IA claramente ultrapassou a capacidade do sistema de direitos autorais de lidar com a situação, mas também vale a pena destacar que entidades comerciais como a OpenAI têm ignorado deliberadamente as proteções existentes no passado, escondendo-se sob a bandeira do “uso justo”—um argumento risivelmente vazio quando consideramos as evidências apresentadas aqui; o ChatGPT não só permite o roubo de direitos autorais e fraude, como também as encoraja ativamente.