1. Anasayfa
  2. Teknoloji haberleri

OpenAI Güvenlik Anlatısı Değişiyor mu? Eski Liderden Eleştiri

OpenAI, yapay zeka güvenliği konusundaki değişen anlatısı ve sorumlu önlemleri sürdürmesi nedeniyle eski bir politika lideri tarafından eleştiriliyor

OpenAI Güvenlik Anlatısı Değişiyor mu? Eski Liderden Eleştiri
OpenAI
0

OpenAI, özellikle DeepSeek’in artan popülaritesi ve OpenAI’nin önde gelen yapay zeka şirketlerinden biri olarak konumuna yönelik tehdidi ile iddialı vizyonuna agresif bir şekilde yaklaşıyor. Teknoloji devi, AGI (Genel Yapay Zeka) geliştirmeyi sürdürüyor ve hatta süper yapay zeka ajanlarının bir sonraki büyük şey olduğunu paylaştı. Şirket, kuruluşundan bu yana güvenlik ve rekabeti dengelemeye çalışırken, yapay zeka güvenliğine yönelik son yaklaşımı, özellikle şirketin yönünü eleştiren ve şirketin anlatısını revize edip etmediğini sorgulayan eski bir kilit üye tarafından pek iyi karşılanmadı.

OpenAI, modellerini adım adım yayınlayarak ve GPT-2’nin dikkatli dağıtımını örnek göstererek, yapay zeka modellerinin dikkatli ve yinelemeli dağıtımına yönelik yaklaşımını yakın zamanda toplulukla paylaştı. Ancak örnek, şirketi eleştiren ve yapay zeka güvenliği tarihine ilişkin anlatıyı yeniden yazmakla suçlayan eski OpenAI politika araştırmacısı Miles Brundage’dan eleştiri aldı. OpenAI’nin yayınladığı belge, yapay zeka güvenliğine ve modellerinin dağıtımına yönelik yaklaşımını vurguladı. Mevcut sistemlere karşı nasıl dikkatli bir yaklaşım sergilediğini vurguladı ve GPT-2’yi dikkatli yayın yaklaşımının bir parçası olarak belirtti. Şirket, gelecekteki sistemlerin güvenliğini sağlamak için mevcut araçlardan öğrenmeye olan inancını dile getirdi. Belgede şu ifadeler yer aldı:

“Kesintili bir dünyada […] güvenlik dersleri, günümüz sistemlerine görünürdeki güçlerine göre aşırı dikkatle yaklaşmaktan gelir, [bu] [yapay zeka modelimiz] GPT-2 için benimsediğimiz yaklaşımdır. Artık ilk AGI’yi, artan kullanışlılığa sahip bir dizi sistem boyunca sadece bir nokta olarak görüyoruz […] Sürekli dünyada, bir sonraki sistemi güvenli ve faydalı hale getirmenin yolu mevcut sistemden öğrenmektir.”

Şirketin birkaç yıl boyunca politika araştırması başkanlığını yapan Miles Brundage, GPT-2 sürümünün her aşamada içgörüleri paylaşan OpenAI ile artan bir yaklaşımı da izlediğinde ısrar ediyor ve güvenlik uzmanları şirketin modeli ele alma konusundaki dikkatli yaklaşımını kabul edip takdir etti. GPT-2’nin kademeli sürümünün mevcut yinelemeli dağıtım stratejisiyle uyumlu olduğunu savunuyor ve geçmişteki dikkatin aşırı değil, gerekli ve sorumlu olduğuna kesinlikle inanıyor. Brundage ayrıca, OpenAI’nin AGI’nin ani bir atılımdan ziyade kademeli adımlarla geliştirileceği iddiası konusunda endişelerini dile getirdi. Şirketin GPT-2’nin yayınlanma tarihini yanlış tanıtmasının ve güvenlik tarihini yeniden yazmasının rahatsız edici olduğunu paylaştı. OpenAI’nin belgeyi bir standart oluşturmak veya güvenlik endişelerini aşırı tepki olarak yerleştirmek için yayınlaması konusundaki endişelerini dile getirdi; bu, özellikle yapay zeka sistemlerinde daha fazla ilerleme kaydedildikçe büyük bir risk oluşturabilir.

OpenAI’nin ilerleme ve karları uzun vadeli güvenliğin önüne koyduğu ilk eleştiri bu değil. Brundage gibi uzmanlar, takasın haklı olup olmadığını vurguluyor ve yapay zeka güvenliğine dikkatle yaklaşılmadığı takdirde geleceğin neler getirebileceği konusunda endişelerini paylaşıyor.

Reaksiyon Göster
  • 0
    alk_
    Alkış
  • 0
    be_enmedim
    Beğenmedim
  • 0
    sevdim
    Sevdim
  • 0
    _z_c_
    Üzücü
  • 0
    _a_rd_m
    Şaşırdım
  • 0
    k_zd_m
    Kızdım
Paylaş

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir