Claude çıktıları üzerine devam eden telif hakkı mücadelesinde müzik yayıncıları için küçük bir zafer. Perşembe günü, müzik yayıncıları, Anthropic’in Claude chatbot’unun telif hakları sahiplerine lisans ücreti ödemeden şarkı sözlerini tekrarladığını iddia eden bir telif hakkı davasında küçük bir zafer elde etti.
ABD’li bölge yargıcı Eumi Lee, Anthropic ile gezegendeki en popüler şarkıların bazılarını lisanslayan yayıncı davacıların vardığı anlaşmanın şartlarını özetleyen bir emir verdi ve bunun anlaşmazlığın bir yönünü çözdüğünü söyledi.
Anlaşma uyarınca, Anthropic herhangi bir yanlış davranışta bulunmadığını kabul etti ve davalar boyunca AI modelleri ve ürünlerinde mevcut güçlü güvenlik önlemlerini sürdürmeyi kabul etti. Anthropic mahkeme belgelerinde defalarca iddia ettiği gibi, bu güvenlik önlemleri, Beyoncé’nin “Halo”, Spice Girls’in “Wannabe”, Bob Dylan’ın “Like a Rolling Stone” gibi hit şarkıların gerçek şarkı sözlerini içeren çıktıları etkili bir şekilde önlemek için çalışıyor. veya davanın merkezinde yer alan 500 şarkı.
Belki de daha da önemlisi, Anthropic, yeni ürünler veya teklifler için de eşit derecede güçlü güvenlik önlemleri uygulamaya kabul etti ve yayıncılar, iddia edilen ihlal edici çıktıları keşfetmeleri durumunda mahkemeye müdahale etme yetkisi verdi.
Bu tür bir müdahaleye başvurmadan önce, yayıncılar Anthropic’i herhangi bir iddia edilen zararlı çıktı hakkında bilgilendirebilir. Bu, kısmi veya tam şarkı sözlerini içeren tüm çıktıları ve chatbot’un ünlü sanatçıların lirik tarzını taklit ederek üretebileceği herhangi bir türev eseri içerir. Hızlı bir incelemeden sonra, Anthropic herhangi bir çözüm yolunu açıklayan veya “sorunu ele alma niyetinin olmadığını” açıkça belirten “detaylı bir yanıt” verecektir. Anlaşma, Anthropic’in AI modellerini eserler üzerinde eğitmesinin telif hakkı yasasını ihlal ettiğini iddia eden yayıncıların daha önemli şikayetini çözmese de, muhtemelen daha fazla hesap verebilirlik sağlayarak anlamlı bir tavizdir.
Anthropic, anlaşmaya varmak için geri adım attı
Anthropic, bir mahkeme dosyasında, “gelecekteki kullanıcıların sorgularına yanıt olarak” zararlı çıktıları önlemeyi amaçlayan yardım talebinin “tartışmasız” olduğunu iddia etmeye çalışmıştı. Ve reddetme talebinde, Anthropic, yayıncıları, iddia edilen herhangi bir sıradan Claude kullanıcısının asla görmeyeceği çıktıları üretmek için Claude’un eski bir sürümünde “kısaca” istemleri mühendislik yapmakla suçladı.
Bu geri itme, Eylül ayında yayıncıları, Fairly Trained’in CEO’su Ed Newton-Rex’ten yardım istemeye yöneltti. Fairly Trained, bir mahkeme dosyasında, “kullandığı veriler için lisans alan veya kamu malı veya açık lisanslı verileri kullanan üretken AI şirketlerini sertifikalandıran kar amacı gütmeyen bir kuruluş” olarak tanımlandı.
Newton-Rex, Claude’un mevcut güvenlik önlemleri üzerinde kendi testlerini gerçekleştirdi ve kamu yorumlarını araştırdı ve iddia edilen şekilde, davada adı geçen 46 şarkıdan tümünü veya bir kısmını oluşturmasına izin veren iki “basit” jailbreak buldu.
Başlangıçta, Anthropic bu kanıtların reddedilmesini istedi ve yayıncıların “uygunsuz” “yeni kanıtları kayıtlara eklemeye” çalıştığını iddia etti. Ancak yayıncılar, Anthropic’in iddia edilen etkili mevcut güvenlik önlemleri hakkındaki iddialarını “düzelterek”, “devam eden zarar” olduğunu ve bir ihtiyati tedbir emri gerektirdiğini kanıtlamak için “kayıtlara düzeltme” yapmaları gerektiğini savundu.
Şarkı sözlerinin herhangi bir yerde çevrimiçi olarak serbestçe kullanılabilir görünebilmesine rağmen, yayıncılar şikayetlerinde, şarkı sözü sitelerinin şarkı sözlerini lisanslamak için ödeme yaptığını ve Anthropic’in böyle bir anlaşma yapmaya hiç teşebbüs etmediğini belirtti.
Yayıncılar, Anthropic’in iddia edilen ihlali devam ederse, yalnızca telif hakkı sahiplerinin içeriği üzerindeki kontrollerini devretmeye zorlanmayacaklarını – Anthropic onlara lisans ücreti ödemeden kar ederken – aynı zamanda chatbot’unun da görünüşe göre “telif hakkı yasalarına saygı duyan ve lisanslar için ödeme yapan web sitesi geliştiricilerine karşı haksız yere rekabet edeceğini” savundu. Anthropic, Ars’ın mevcut güvenlik önlemlerinin iddia edilen jailbreak’leri nasıl önlediği hakkındaki yorum talebine hemen yanıt vermedi, ancak yayıncılar anlaşmayı kabul ederek mevcut güvenlik önlemlerinden memnun görünüyor.
AI eğitiminin ihlal edici olup olmadığı henüz belirsiz
Şimdi, Anthropic’in iddia edilen zararlı çıktıları engellemek için yeterince güçlü güvenlik önlemlerine sahip olup olmadığı konusu çözüldü, Lee, mahkemenin “yayıncıların Ön İhtiyati Tedbir Emri Talebinde, Anthropic’in Yayıncıların şarkı sözlerinin yetkisiz kopyalarını kullanmaktan kaçınmasını isteyen taleplerine” odaklanmasına izin verdi. gelecekteki AI modelleri için eğitim.”
Anthropic, ihtiyati tedbir emrine karşı yaptığı başvurusunda, yardımın reddedilmesi gerektiğini söyledi.
Anthropic’in mahkeme dosyasında, “Üretken AI şirketlerinin, telif hakkı korumalı içeriği, lisans almadan AI modellerini eğitmek için izin verilebilir şekilde kullanıp kullanamayacağı, şu anda ülke genelinde yaklaşık yirmi dört telif hakkı ihlali davasında yargılanıyor ve bunlardan hiçbiri sorunu çözmeye çalışmadı. bir ihtiyati tedbir emri talebinin kısaltılmış duruşunda. Bu davanın hiçbir başka davacısının – bu davadaki Davacılardan birinin ana şirketi plak şirketi dahil – bu davranıştan ihtiyati tedbir emri talebinde bulunmaması çok şey anlatıyor.”
Anthropic’in bir sözcüsü, Ars’a yaptığı açıklamada, “Claude’un telif hakkı ihlali için kullanılması amaçlanmamıştır ve bu tür ihlalleri önlemek için tasarlanmış çok sayıda sürecimiz vardır.” dedi.
“Bu anlaşmayı imzalama kararımız, bu önceliklerle tutarlıdır.” dedi Anthropic. “Mevcut telif hakkı yasalarıyla uyumlu olarak, üretken AI modellerini eğitmek için potansiyel olarak telif hakkı korumalı materyali kullanmanın haklı kullanım olması gerektiğini göstermeye devam ediyoruz.”
Bu davanın tamamen çözülmesi muhtemelen aylar alacak, çünkü AI eğitiminin telif hakkı korumalı eserlerin adil kullanımı olup olmadığı sorusu karmaşıktır ve mahkemede hararetli bir şekilde tartışılmaya devam etmektedir. Anthropic için, bir kayıp potansiyel olarak 75 milyon dolardan fazla para cezası ve muhtemelen Anthropic’i eğitim verilerindeki tüm telif hakkı korumalı eserleri ortaya çıkarmaya ve yok etmeye zorlayan bir emir tetikleyebileceğinden, riskler yüksek olabilir.