Meta'dan Yapay Zeka Güvenliği Açıklaması

Meta CEO'su Mark Zuckerberg, yapay zeka teknolojisinin erişilebilir olması gerektiğini savunsa da, bazı yüksek riskli sistemlerin kamuya açıklanmayabileceğini belirtti. Şirket, özellikle tehlikeli yapay zeka sistemleri üzerinde güvenlik önlemlerini artıracak.
(ANKARA) – Meta'nın CEO'su Mark Zuckerberg, yapay zeka teknolojisinin geniş çapta erişilebilir olması gerektiğini savundu. Ancak şirketin yeni politika belgesine göre, bazı yapay zeka sistemleri çok tehlikeli bulunursa kamuya açık şekilde paylaşılmayabilir. Meta, özellikle siber güvenlik saldırıları, kimyasal ve biyolojik tehditler gibi riskler taşıyan sistemleri sınırlayacağını belirtti.
WhatsApp, Facebook ve Instagram'ın sahibi Meta'nın İleri Düzey Yapay Zeka Çerçevesi (Frontier AI Framework) adlı yeni belgesine göre, şirket bazı senaryolarda yüksek yetenekli yapay zeka sistemlerini oluşturduğu riskler nedeniyle paylaşmayabilir. Bu ay Fransa'daki Yapay Zeka Eylem Zirvesi öncesinde yayımlanan bu çerçevede Meta, "yüksek riskli" ve "kritik riskli" olmak üzere iki ayrı yapay zeka grubunun tanımını yapıyor.
Yüksek riskli sistemler belirli önlemlerle güvenli hale getirilebiliyorken, kritik riskli sistemler 'felaketle sonuçlanabilecek tehlikeler barındırdığı için' Meta, bu tür sistemlerin gelişimini durduracağını ve güvenlik önlemlerini artıracağını açıkladı.
Meta'nın belirttiğine göre, özellikle ileri düzey siber saldırıları gerçekleştirebilecek veya yüksek etkili biyolojik silahların yayılmasına neden olabilecek yapay zeka sistemleri kritik risk taşıyor. Şirket, sistemlerin tehlike düzeyini belirlemek için iç ve dış uzmanların görüşlerini dikkate aldığını belirtirken, yapay zeka güvenliğinin kesin bir ölçüm standardına sahip olmadığını da kabul ediyor.
Öte yandan Meta'nın CEO'su Mark Zuckerberg Facebook üzerinden 2025 yılında yapay zekanın gelişimine yönelik beklentilerini aktardığı değerlendirmede yapay zeka sistemlerinin açık kaynaklı olması gerektiğini savundu. Meta da, yapay zeka teknolojisini geniş çapta erişime açma stratejisini benimsediğini vurgulasa da, uzmanlara göre bu tamamen açık kaynaklı bir sistemle ilerleyecekleri anlamına gelmiyor. Şirketin Llama adını taşıyan yapay zeka modellerinin en az bir ABD karşıtı aktör tarafından bir savunma sohbet botu geliştirmek için kullanıldığı da daha önce tespit edilmişti.