Yapay zeka (AI) iftira ile suçlanabilir mi? Yakında öğreneceğiz!
Reyhan Açıkelli
Yapay zeka dünyası, şaşırtıcı hızda ilerlemeye devam ediyor ve bu hızlı gelişmelerle birlikte yeni ve karmaşık sorunlar da ortaya çıkıyor. Bugünkü yazımda, yakın zamanda okuduğum bir makaleden yola çıkarak yapay zeka uygulamalarının iftira suçu işlemesi ve bu suçun kimin sorumluluğunda olduğu konusunu tartışalım istiyorum.
Yeni nesil yapay zeka modellerinin, özellikle ChatGPT gibi dil modellerinin, gerçek dışı haberler ve olaylar üretebildiğini biliyoruz. Peki, bu durum iftira yasalarıyla çatışabilir mi? İşin aslı, bu konu teknoloji alanında öncülük eden ve henüz bilinmeyen bir durumdur. Yakında başlayacak hukuki süreçler bu durumu değiştirebilir. Konuyu merakla takip ettiğimi söylemek istiyorum. Gelelim İftira kavramına; Iftira kavramını, bir kişi hakkında kötü ve yalan söylemek şeklinde açıklayabiliriz. Ülkeden ülkeye değişen karmaşık ve detaylı bir konudur. Bu bir hukukçunun bilebileceği bir uzmanlık alanı olmasına rağmen. Gelelim asıl merak edile soruya. Şimdi, AI modelleri ve yazılımları, özellikle ChatGPT gibi büyük dil modelleri, gerçek dışı iddialarla insanların itibarını zedeleyebilir mi?
Örneğin, AI modeli, bir hükümet yetkilisinin yolsuzluk davasında suçlandığını ya da bir üniversite profesörünün cinsel tacizle suçlandığını yazarsa ne olur? Geçmişte dil modellerinin çok güçlü olmaması nedeniyle bu tür iddiaların ciddiye alınabileceğini düşünen pek az insan vardı. Ama bugünlerde, AI modelleri her yerde ve herkesin erişimine açık.
Bu durum, Avustralya'nın Hepburn Shire Belediye Başkanı Brian Hood'un, kendisi hakkında yıllar önce gerçekleşen bir rüşvet skandalında mahkum edildiği yönünde yazılmış olan ChatGPT tarafından üretilen bir ifade ile ilgilendiğinde ortaya çıkmıştır. Hood, rüşvet skandalında adı geçen kişilerden biriydi, ancak suçlamaları yetkililere bildiren kendisiydi ve hiçbir zaman suçlanmamıştı. Şimdi bu ifade, hem yanlış hem de Hood'un itibarına zarar verici olduğu açıktır.
Peki bu durumda, iftira suçunu kim işlemiş oluyor? Yazılımı geliştiren şirket OpenAI mi?, Yoksa yazılımı lisanslayan ve Bing altında konuşlandıran Microsoft mu? Yoksa AI dil modeli mi suçlu? Eğer öyleyse, bu modeli böyle bir ifade yaratmaya yönlendiren kim?
Bu tür sorular önemlidir ve henüz kesin yanıtları bulunmamaktadır.
Örneğin çok tartışılan bir konu da bu durumu iftira mı olarak değerlendirmeliyiz, yoksa iki kişi arasındaki özel bir konuşma gibi mi değerlendirmeliyiz?
Bu durum, sözlü saldırı (küçük düşürme) olarak mı kabul edilmelidir?
OpenAI veya ChatGPT, bu bilginin yanlış olduğunu "bilmeli" miydi ve böyle bir durumda ihmalkarlık nasıl tanımlanır?
Bir AI modeli kötü niyet sergileyebilir mi? Bu, yasanın, davanın, hakimin durumuna bağlı mıdır?
Şu an için bu soruların tam yanıtları yoktur, çünkü bu tür teknolojiler geçmişte yoktu ve iftira yasaları ve emsal hukuk kuralları, AI modellerini kapsayacak şekilde oluşturulmamıştır. Bir sohbet robotunu yanlış bir şey söylediği için dava etmek saçma gibi görünse de, sohbet robotları artık eskisi gibi değil. Bu sistemler, dünyanın en büyük şirketlerinin bilgi alma yöntemi olarak önerilirken, milyonlarca insan tarafından düzenli olarak kullanılan araçlar haline gelmiştir.
Bu tür olaylar, AI teknolojisi ile ilgili mevzuatın ve sorumlulukların daha da belirginleşmesine yol açabilecek önemli hukuki davalara yol açabilir. Şirketler, AI modellerini geliştirirken ve büyük ölçekli kullanıma sunarken, yanlış ve zararlı ifadelerin yayılma riskini azaltmak için daha etkili düzenlemeler ve önlemler uygulamak zorunda kalabilirler.
AI modellerinin doğruluk ve güvenilirlik açısından sürekli olarak denetlenmesi ve değerlendirilmesi gerekebilir. Ayrıca, bu tür olayların tekrar yaşanmaması için, AI modelleri ve üreticileri arasında daha fazla şeffaflık ve sorumluluk talep edilebilir
Bu hukuki mücadelelerin nasıl sonuçlanacağını zaman gösterecek, ancak şu anda teknoloji şirketleri ve düzenleyiciler, AI'nin hızla gelişen potansiyeline uyum sağlamak ve bu tür sorunları önlemek için birlikte çalışmak zorundadır. Bu, sadece iftira suçlamalarıyla ilgili değil, aynı zamanda AI'nin etik kullanımı ve genişletilmiş gerçeklik gibi diğer zorlu konularla ilgilidir.
Sonuç olarak, AI modellerinin yaygınlaşması ve gelişimi, yasaların ve düzenlemelerin bu yeni teknolojilere uyum sağlaması gerektiği anlamına gelmektedir. Bu konuda siz ne düşünüyorsunuz? Görüşlerinizi merak ediyorum. Lütfen düşüncelerinizi yorum olarak paylaşın.
* Makalenin düzenlenmesinde ve makale görselinin tasarımında yapay zeka araçlarından yararlanılmıştır.