O criador da IA ​​Claude, Anthropic, foi processado por treinar seu chatbot em cópias piratas de livros protegidos por direitos autorais

o-criador-da-ia-​​claude,-anthropic,-foi-processado-por-treinar-seu-chatbot-em-copias-piratas-de-livros-protegidos-por-direitos-autorais
O chatbot de IA Claude da Anthropic em uso em um telefone

Um grupo de autores está processando a startup de IA Anthropic, alegando que ela cometeu “roubo em larga escala” ao treinar seu chatbot em cópias piratas de livros protegidos por direitos autorais.

Com sede em São Francisco e fundada por ex-chefes da OpenAI, a Anthropic fez da versão mais confiável do ChatGPT uma parte central de seus esforços de marketing em torno de seu chatbot, Claude, prometendo entregar “sistemas de IA confiáveis, interpretáveis ​​e direcionáveis”. A empresa até fez questão de pedir propostas de IA focadas em segurança.

Essa imagem foi um tanto abalada pelo processo movido na segunda-feira, 19 de agosto, em um tribunal federal de São Francisco, alegando que a Anthropic ensinou seu produto de IA usando bibliotecas de trabalhos pirateados. Alegações semelhantes foram feitas contra o ChatGPT da OpenAI e contra a própria Anthropic por editoras musicais.

“Não é exagero dizer que o modelo da Anthropic busca lucrar com a exploração minerária da expressão humana e da engenhosidade por trás de cada uma dessas obras”, afirma o processo, conforme relatado pela AP News.

A Anthropic ainda não fez uma declaração pública em resposta ao processo até o momento em que este documento foi escrito.

Que processo foi movido contra a Anthropic?

Os escritores que movem o processo são Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, buscando representar uma classe de autores de ficção e não ficção com mentalidade semelhante. O caso alega que a empresa de tecnologia construiu seus modelos de IA usando trabalho humano.

Isso ajuda a treinar chatbots de IA como Claude para produzir texto, sem o consentimento dos criadores originais e sem oferecer a eles nenhuma compensação. Embora este caso se concentre na palavra escrita, a Anthropic também está enfrentando atualmente alegações semelhantes de editoras musicais alegando que a IA generativa está lucrando com o uso indevido de obras criativas.

Em resposta, a Anthropic e outras empresas de tecnologia se defenderam argumentando que o treinamento de modelos de IA se enquadra na doutrina de uso justo da lei de direitos autorais dos EUA. Isso normalmente abrange ensino, pesquisa ou transformação de obras protegidas por direitos autorais em algo novo.

No entanto, o processo contra a Antrópica argumenta que os sistemas de IA não aprendem da mesma forma que os humanos, escrevendo: “Humanos que aprendem com livros compram cópias legais deles ou os pegam emprestados de bibliotecas que os compram, fornecendo pelo menos alguma medida de compensação aos autores e criadores”.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *