0

A Anthropic, empresa responsável pelo modelo de IA Claude, firmou um acordo para encerrar um processo judicial movido por grandes editoras musicais, como Universal Music Group, ABKCO e Concord Music Group. A ação, iniciada em outubro de 2023, acusava o chatbot de IA de violar direitos autorais ao supostamente distribuir letras de músicas protegidas sem permissão.

A juíza distrital dos Estados Unidos, Eumi Lee, foi quem estabeleceu as condições do acordo. Ela determinou que a Anthropic deverá implementar proteções no treinamento de futuros modelos de IA, para evitar que conteúdos protegidos por direitos autorais sejam utilizados sem a devida autorização. Além disso, a empresa deverá criar um mecanismo para permitir que as editoras musicais intervenham quando houver suspeita de violação.

A ação alegava que o Claude teria sido treinado com letras de ao menos 500 músicas protegidas, incluindo faixas como Halo, de Beyoncé, Uptown Funk, de Mark Ronson, e Moves Like Jagger, do Maroon 5. Segundo os demandantes, o chatbot de IA teria fornecido “todas ou partes significativas” dessas letras, colocando em risco os direitos autorais das músicas.

Com o acordo, a Anthropic se comprometeu a adotar medidas para mitigar o uso não autorizado de obras protegidas no treinamento de suas IAs, enquanto as editoras musicais poderão monitorar e agir em casos suspeitos de infração. A solução busca equilibrar o avanço da tecnologia de inteligência artificial com a proteção dos direitos dos artistas e produtores musicais.

Perfis de artistas da MPB invadidos no Spotify com faixas misteriosas

Artigo anterior

Dois anos após o ataque às instituições, desafios para reforçar a democracia e novas polêmicas no cenário político

Próximo artigo

Você pode gostar

Comentários

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais sobre Tecnologia