30'dan fazla OpenAI ve Google DeepMind çalışanı, Anthropic'in ABD Savunma Bakanlığı'na karşı açtığı davayı destekleyen bir ifade sundu.
ANTHROPIC'İN RİSK OLARAK BELİRLENMESİ
Mahkeme belgelerine göre, federal ajansın yapay zeka firmasını tedarik zinciri riski olarak nitelendirmesi, endüstrimiz için ciddi sonuçlar doğurabilecek yanlış ve keyfi bir güç kullanımıdır. OpenAI ve Google çalışanları, Pentagon'un Anthropic'i tedarik zinciri riski olarak belirlemesiyle ilgili endişelerini dile getirdi. Pentagon, Anthropic'in teknolojisini Amerikalıların kitlesel izlenmesi veya otonom silah kullanımı için vermeyi reddetmesinin ardından bu kararı aldı.
SAVUNMA BAKANLIĞI'NIN GEREKÇELERİ
DOD, yapay zekayı her türlü 'yasal' amaç için kullanma hakkına sahip olduğunu ve özel bir yüklenici tarafından kısıtlanmaması gerektiğini savundu. Anthropic'in destekçisi olarak sunulan amicus belgesi, Claude üreticisinin DOD ve diğer federal ajanslara karşı iki dava açmasının ardından birkaç saat içinde mahkeme dosyasına eklendi. Çalışanlar, Pentagon'un Anthropic ile yapılan sözleşmenin şartlarından memnun değilse, sözleşmeyi iptal edip başka bir yapay zeka şirketinin hizmetlerini satın alabileceğini belirtti.
ANTHROPIC'İN KORUNMASI GEREKİYOR
Ayrıca, mahkeme belgesinde, Anthropic'in belirlediği kırmızı çizgilerin geçerli endişeler olduğu ve güçlü koruma önlemleri gerektirdiği ifade edildi. Kamu hukuku olmadan yapay zeka kullanımını düzenlemek, geliştiricilerin sistemleri üzerinde koyduğu sözleşmesel ve teknik kısıtlamaların felaket bir yanlış kullanıma karşı kritik bir güvenlik önlemi olduğu savunuldu. Son birkaç hafta içinde bu ifadeyi imzalayan birçok çalışan, DOD'un bu etiketi geri çekmesi için açık mektuplar da imzaladı.

