14 Mayıs 2026

Bu Site; Uşak Üniversitesi İletişim Fakültesi, Yeni Medya ve İletişim Bölümü, İnternet Gazeteciliği Dersi Projesidir.

Spontane Digital
GenelTeknoloji

Claude’un Geliştiricisinden Güvenlik Kurallarında Geri Adım

Anthropic, yapay zeka güvenliği politikasını esnetti. Claude’un geliştiricisinden rekabet uğruna değişen güvenlik kurallarının detayları.

Claude’un geliştiricisi olan yapay zeka şirketi Anthropic, Time dergisine verdiği bir röportajda güvenlik politikalarında çok büyük bir değişikliğe gittiğini doğruladı. Şirket, gerekli güvenlik önlemlerini önceden garanti altına almadan yeni yapay zeka modelleri eğitmeyeceği veya bunları piyasaya sürmeyeceği yönündeki o meşhur temel sözünden resmen vazgeçtiğini açıkladı.

Anthropic Geri Adım Attı: Yapay Zeka Güvenliğinde Kurallar Değişiyor

Daha önce onu sektörel rakiplerinden ayıran bu katı politikasını değiştiren Anthropic, artık daha esnek bir yaklaşım benimseyecek. Şirket bundan böyle yapay zeka geliştirmelerini tamamen durdurmak gibi katı ön koşullar yerine, hazırlayacağı şeffaflık raporlarına ve güvenlik yol haritalarına güveneceğini belirtti.

Şirket yöneticileri alınan bu kararın ideolojik bir geri adım değil, tamamen pragmatik bir tercih olduğunu vurguluyor. Hızla gelişen yapay zeka pazarındaki yoğun ticari rekabet ve jeopolitik aciliyet, şirketin tek taraflı kısıtlamalara devam etmesini mantıksız bir hale getirdi.

Yeni duyurulan “Sorumlu Ölçeklendirme Politikası” kapsamında Anthropic, yetenekleri ve olası tehditleri değerlendiren düzenli Risk Raporları ile birlikte Sınır Güvenliği Yol Haritaları yayımlayacak. Şirket yalnızca alanda lider konumda olduğuna inanırsa ve felaket boyutunda büyük bir risk tespit ederse geliştirme sürecini duraklatacak. Ancak tüm riskler çözülene kadar eğitimi peşinen durdurma sözü artık geçerli olmayacak.

Rekabet Güvenliği Yendi: Anthropic Yapay Zeka Sınırlarını Esnetiyor

Son kullanıcılar günlük hayatlarında Claude veya diğer yapay zeka araçlarını kullanırken herhangi bir değişiklik fark etmeyebilir. Ancak perde arkasındaki bu eğitim kuralları, sistemin doğruluk payından dolandırıcılık amaçlı kötüye kullanımına kadar pek çok önemli unsuru doğrudan belirliyor.

Yeni duyurulan “Sorumlu Ölçeklendirme Politikası” kapsamında Anthropic, yetenekleri ve olası tehditleri değerlendiren düzenli Risk Raporları ile birlikte Sınır Güvenliği Yol Haritaları yayımlayacak. Şirket yalnızca alanda lider konumda olduğuna inanırsa ve felaket boyutunda büyük bir risk tespit ederse geliştirme sürecini duraklatacak. Ancak tüm riskler çözülene kadar eğitimi peşinen durdurma sözü artık geçerli olmayacak.

Rekabet Güvenliği Yendi: Anthropic Yapay Zeka Sınırlarını Esnetiyor

Son kullanıcılar günlük hayatlarında Claude veya diğer yapay zeka araçlarını kullanırken herhangi bir değişiklik fark etmeyebilir. Ancak perde arkasındaki bu eğitim kuralları, sistemin doğruluk payından dolandırıcılık amaçlı kötüye kullanımına kadar pek çok önemli unsuru doğrudan belirliyor.

RAIDS AI CEO’su Nik Kairinos, Anthropic’in temel güvenlik sözünden vazgeçmesinin bağımsız denetimlerin ve bağlayıcı resmi düzenlemelerin ne kadar şart olduğunu açıkça gösterdiğini savundu. Kairinos ayrıca, Anthropic’in henüz birkaç hafta önce yapay zeka güvenlik yasalarını destekleyen siyasilere 20 milyon dolar bağışta bulunmasının büyük bir ironi olduğunu ve mevcut durumun karmaşıklığını yansıttığını sözlerine ekledi.

Düzenlenme Tarihi:26.02.2026,21:00

Kaynak:https://shiftdelete.net/anthropic-sozunden-dondu

Görsel Kaynak:https://shiftdelete.net/anthropic-sozunden-dondu

Duygu Tapan

Bilimsel veriler ışığında sağlık dünyasındaki gelişmeleri ve geleceği şekillendiren teknolojik yenilikleri takip eden Duygu, bilinçlendirici ve güncel içeriklerle okuyucularımızı bilgilendiriyor.

5 1 vote
Article Rating
Bana Haber Ver
Bildir
guest
0 Yorum
Eskiler
En Yeniler Beğenilenler
Inline Feedbacks
View all comments