Amerikan hükümeti, Anthropic'in yapay zeka teknolojisinin kullanımını yasakladı

Amerika Birleşik Devletleri hükümeti, güvenlik endişeleri nedeniyle, yerli yapay zeka şirketi Anthropic'in teknolojisini federal kurumlar tarafından kullanılmasını yasakladı. Bu yasak, bir ABD firmasının ulusal güvenlik riski olarak sınıflandırılması açısından önemli bir gelişme olarak dikkat çekiyor.
Amerikan hükümeti, Anthropic'in yapay zeka teknolojisinin kullanımını yasakladı

Amerika Birleşik Devletleri hükümeti, Claude modeliyle tanınan Anthropic adlı yapay zeka şirketinin federal kurumlar tarafından kullanılmasını yasakladı. İlk kez bir ABD firması, genellikle Huawei gibi yabancı şirketlere verilen "ulusal güvenlik riski" etiketiyle sınıflandırıldı.

Başkan Trump'tan açıklama

Başkan Donald Trump, 28 Şubat 2026'da Truth Social üzerinden yaptığı açıklamada, tüm federal kurumlara Anthropic'in yapay zeka teknolojisini kullanmayı derhal durdurma talimatı verdi. Trump'ın bu kararı, kamuoyu ve teknoloji dünyasında büyük yankı uyandırdı. Savunma Bakanlığı gibi, Claude modeline büyük ölçüde bağımlı olan departmanlara, yapay zekayı aşamalı olarak devre dışı bırakmaları için altı aylık bir süre verildi.

Yapay zeka kullanımındaki bu yasak, Anthropic’in Pentagon’a Claude’a sınırsız erişim izni vermeyi reddetmesinin ardından geldi. Anthropic, hükümetin yapay zekayı kullanmasına ilişkin iki önemli istisna talep etti: Amerikalıların kitlesel gözetimi yapılmaması ve tamamen otonom silahların kullanılmaması. Ancak Pentagon, "tüm yasal amaçlar için" tam erişim talep etti ve Anthropic CEO'su Dario Amodei bu talebi reddetti. Amodei, mevcut yapay zeka modellerinin otonom silahlar için yeterince güvenilir olmadığını savunarak, güvenlik önlemlerinin hem askerleri hem de sivilleri koruma amacını taşıdığını ifade etti.

Anthropic, 2024’te başlayacak olan 200 milyon dolarlık bir Savunma Bakanlığı sözleşmesi kapsamında yapay zekasını ABD hükümetinin gizli ağlarında kullanmayı kabul etmişti. Ancak, özel görüşmelerin başarısızlıkla sonuçlanmasının ardından Pentagon, Anthropic’e son bir ültimatom verdi: ya uyum sağlayın ya da kara listeye alınacaksınız. Bu gelişmelerin ardından, Pentagon, Anthropic’i ulusal güvenlik riski olarak sınıflandırdı.

Hukuki ve ticari sonuçlar

Anthropic, Pentagon'un son teklifinin güvenlik önlemlerini ihlal eden yasal ifadeler içerdiğini ve bu nedenle hukuken geçersiz olduğunu iddia ediyor. Şirket, tedarik zinciri risk sınıflandırmasını mahkemeye taşıyacağını ve bu adımın yalnızca Savunma Bakanlığı sözleşmeleri için geçerli olduğunu savunarak yasal bir mücadele başlatmayı planlıyor.

Yasak, federal kurumlar ve Savunma Bakanlığı dışındaki diğer yükleniciler için geçerli olmayacak. Bireysel kullanıcılar ve DoW dışındaki yükleniciler, Claude'u kullanmaya devam edebilecekler. Ancak bu karar, teknoloji sektöründe önemli bir etki yaratabilir. Anthropic, Amazon, Microsoft ve Google gibi büyük bulut hizmet sağlayıcılarına bağımlı bir şirket ve bu şirketlerin çoğu, askeri sözleşmelere sahip. Eğer bulut hizmet sağlayıcıları Anthropic ile ilişkilerini kesmek zorunda kalırsa, şirketin faaliyetleri büyük ölçüde etkilenebilir. Hukuk uzmanları, bu kararın, bir ABD firması üzerinden yabancı bir güvenlik aracının uygulanmasıyla tehlikeli bir emsal oluşturabileceği konusunda uyarılarda bulunuyor. Trump, geçiş döneminde işbirliği yapmayan Anthropic şirketini hukuki ve cezai sonuçlarla karşı karşıya bırakma tehdidinde bulundu.

Anthropic'in tutumu değişmeyecek

Yoğun baskılara rağmen, Anthropic, yapay zekasının otonom silahlar veya iç gözetim amacıyla kullanılmasına kesinlikle izin vermeme konusundaki tutumunu sürdürüyor.

Yorum Yaz

Yorumun minimum 10 karakter olmalıdır. (0)

Yorumlar