Anthropic Cede e Fecha Acordo com Autores para Fugir de Julgamento Apocalíptico
Em um roteiro que parece saído de uma ficção científica distópica, a Anthropic, uma das principais concorrentes da OpenAI, acaba de desviar de uma bala financeira que poderia ter sido fatal não apenas para ela, mas para toda a indústria de IA. A empresa confirmou que chegou a um acordo em uma gigantesca ação coletiva movida por autores que a acusavam de usar seus livros — muitos deles obtidos de forma ilícita — para treinar seu modelo de linguagem Claude. O acordo, cujos termos ainda são confidenciais, evita um julgamento que, segundo estimativas da Wired, poderia resultar em penalidades superiores a US$ 1 trilhão.
O Fantasma de um Trilhão de Dólares
A situação para a Anthropic era, para dizer o mínimo, delicada. O processo, iniciado por três autores, incluindo Andrea Bartz e Charles Graeber, foi certificado pelo juiz distrital William Alsup como uma ação coletiva que poderia abranger até 7 milhões de reclamantes. De acordo com o Ars Technica, defensores da indústria de IA alertaram que, se cada autor elegível entrasse com uma reivindicação, o resultado seria a "ruína financeira" de todo o setor. A ameaça não era apenas uma hipérbole: enfrentar "centenas de bilhões de dólares em potencial responsabilidade por danos" a poucos meses do julgamento, marcado para dezembro, colocou a startup em uma posição insustentável.
A decisão de negociar parece ter sido uma manobra de sobrevivência. Edward Lee, professor de direito e especialista em direitos autorais de IA, comentou à Wired que esta foi uma "reviravolta impressionante", especialmente porque a Anthropic vinha lutando ferozmente e até contratou uma nova equipe de advogados para o julgamento. Aparentemente, a nova equipe viu o que estava escrito na parede: as defesas eram poucas e o risco de uma condenação com danos estatutários em valores apocalípticos era iminente.
Napster com Doutorado: A Origem do Problema
A ironia do caso é notável. Em junho, a Anthropic havia conquistado uma vitória parcial quando o juiz Alsup determinou que treinar modelos de IA com livros comprados legalmente se enquadrava como "uso justo" (fair use). A empresa celebrou a decisão, afirmando que seu único propósito era construir modelos de linguagem. No entanto, o juiz deixou a porta aberta para a questão central da ação coletiva: o uso de obras pirateadas. Conforme relatado pelo The Verge, Alsup comparou a prática a um "download no estilo Napster de milhões de obras", uma analogia que minou a defesa da Anthropic.
É como construir o cérebro de uma entidade superinteligente e alimentá-lo com conhecimento roubado. A origem ilícita dos dados de treinamento se tornou o calcanhar de Aquiles da empresa. A Anthropic, uma entidade que vive na fronteira da tecnologia, foi pega por um problema tão antigo quanto a internet discada: a pirataria. O acordo, portanto, não é sobre a legalidade do treinamento de IA em si, mas sobre a procedência do material usado nesse treinamento.
Um Tratado de Paz entre Homem e Máquina?
Este acordo é muito mais do que um cheque assinado para encerrar um processo. Ele representa um dos primeiros tratados formais que definem as regras de engajamento entre criadores humanos e as inteligências artificiais que estão sendo construídas a partir de seu trabalho. Justin Nelson, advogado que representa os autores, descreveu o resultado como um "acordo histórico que beneficiará todos os membros da classe", em declarações à imprensa. Embora os detalhes só devam ser revelados em algumas semanas, com a aprovação preliminar prevista para 5 de setembro, a mensagem é clara: a era do Velho Oeste do "data scraping", onde qualquer dado disponível na internet era material justo para treinamento, está chegando ao fim.
Estamos entrando em uma fase onde a proveniência dos dados será fundamental. Talvez, no futuro, as AGIs (Inteligências Artificiais Gerais) venham com um selo de "conhecimento eticamente adquirido", com cada byte de informação rastreado e licenciado. Este acordo estabelece um precedente poderoso, forçando todas as empresas de IA a reavaliar suas bibliotecas de treinamento. A Anthropic não apenas salvou a si mesma; ela inadvertidamente ajudou a escrever o primeiro capítulo do código de conduta para as mentes digitais do futuro.
{{ comment.name }}
{{ comment.comment }}