Pressão Crescente sobre Empresas de IA em Relação a Conteúdo com Direitos Autorais

Tecnologia

Empresas de inteligência artificial, como a OpenAI, enfrentam crescente pressão relacionada ao conteúdo usado para treinar seus produtos inovadores. Ferramentas como o chatbot ChatGPT e geradores de imagens, incluindo o Stable Diffusion, dependem de conjuntos de dados da internet, muitos dos quais são protegidos por direitos autorais.

Recentemente, o New York Times processou a OpenAI e a Microsoft, acusando-as de “uso ilegal” do trabalho do jornal na criação de seus produtos. Em resposta a um comitê no Reino Unido, a OpenAI afirmou que seria impossível treinar grandes modelos de linguagem, como o GPT-4, sem acessar materiais protegidos por direitos autorais.

A empresa destacou que os direitos autorais abrangem praticamente todas as formas de expressão humana, e limitar o treinamento a materiais de domínio público resultaria em sistemas de IA inadequados. A defesa frequentemente invoca a doutrina do “uso justo”, permitindo o uso de conteúdo em circunstâncias específicas sem a permissão do proprietário.

A OpenAI enfatizou seu respeito pelos direitos dos criadores e afirmou acreditar que legalmente a lei dos direitos autorais não proíbe a prática de treinamento. A empresa está enfrentando várias ações judiciais, incluindo uma movida por autores famosos alegando “roubo sistemático em grande escala.”

Além disso, a Getty Images está processando a Stability AI, criadora do Stable Diffusion, por supostas violações de direitos autorais. A Anthropic, apoiada pela Amazon, também enfrenta processos por utilizar letras de músicas protegidas por direitos autorais para treinar seu chatbot Claude.

Em resposta a perguntas sobre segurança, a OpenAI expressou apoio à análise independente de suas medidas de segurança. A empresa também endossou equipes “vermelhas” de sistemas de IA, compostas por pesquisadores externos que testam a segurança dos produtos, emulando comportamentos de atores maliciosos. A OpenAI concordou em colaborar com governos nos testes de segurança de seus modelos mais avançados antes e depois da implementação.

Fonte/Créditos: The Guardian

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *