Milli İstihbarat Akademisi Öğretim Üyesi Dr. Erbay: "Yapay zekayı biraz daha güvenlik kısmında, siber güvenlik saldırılarını engellemesindeki...

Milli İstihbarat Akademisi Öğretim Üyesi Dr. Erbay:
Haberler
Güncelleme:
Haberler
Twitter'da Paylaş Facebook'da Paylaş WhatsApp'da Paylaş

Milli İstihbarat Akademisi Öğretim Üyesi Dr. Erbay: "Yapay zekayı biraz daha güvenlik kısmında, siber güvenlik saldırılarını engellemesindeki hızından faydalanma adına kullanabiliriz" "Türkiye'de yapay zeka modelinin geliştirilmesi güvenlik anlamında oldukça önemli" Milli...

Milli İstihbarat Akademisi Öğretim Üyesi Dr. Erbay: "Yapay zekayı biraz daha güvenlik kısmında, siber güvenlik saldırılarını engellemesindeki hızından faydalanma adına kullanabiliriz"

" Türkiye'de yapay zeka modelinin geliştirilmesi güvenlik anlamında oldukça önemli"

ANKARA - Milli İstihbarat AkademisiÖğretim Üyesi Dr. Celal Erbay, "Yapay zekayı biraz daha güvenlik kısmında, siber güvenlik saldırılarını engellemesindeki hızından faydalanma adına kullanabiliriz ve değerlendirebiliriz" dedi.

Milli İstihbarat Akademisi tarafından düzenlenen " Yapay Zeka, Toplum ve Güvenlik Çalıştayı" başladı. Milli İstihbarat Akademisi Öğretim Üyesi Celal Erbay, İhlas Haber Ajansına "Yapay Zeka, Toplum ve Güvenlik" alanına ilişkin konuştu. Erbay, yapay zeka toplumları değiştirdiğini ve toplumları etkilediğini ifade etti. Yapay zekanın getirdiği fırsatlar kadar riskler olduğuna dikkat çeken Erbay, Yapay zeka sonuçta son yıllarda özellikle toplumların gündemine gelen bir konu fakat geçmişine baktığımız zaman 1950'lere kadar dayanan bir terim. Ardından yine baktığımız zaman 1980'lere geldiğimizde güvenlik alanında, dünyada özellikle ABD gibi ülkelerde kullanılmaya başlanan bir konu. Orada yine açık ayaklarda aslında birçok ortamda yapay zekanın geliştirildiği ve bunların aktif bir şekilde kullanıldığını görüyoruz. Yapay zeka şöyle tarif edebiliriz en temelinde güvenlik anlamında kullanılmaya baktığımız zaman veri analiz ve siber güvenlik. Burada yapay zekanın veri analizinde işleri yüzde 50 hızlandırdığı, yine siber güvenlik saldırılarını yüzde 30-yüzde 40'lar oranında hızlandırdığı daha doğrusu önlediğini biliyoruz. Bu tür bilgiler açık ortamlarda bulunmakta" ifadelerini kullandı.

Genelde yapay zekanın işleri, iş fırsatlarını daha doğrusu azaltacağı, insanların iş kaybına yol açacağı ve bunlar artacağıyla ilgili bazı önyargıları ve endişelerinin olduğunu bildiren Erbay, "Fakat biz yapay zekayı biraz daha güvenlik kısmında özellikle, bir takım arkadaşı ve yan işlerimizde yardımcı olacak bir arkadaş olarak görüp, işlerimizi hızlandırma adına, siber güvenlik saldırılarını engellemesindeki hızından faydalanma adına kullanabiliriz ve değerlendirebiliriz" dedi.

Yapay zeka anlamında özellikle hızlı bir gelişim olduğuna dikkat çeken Erbay, " En başta sorduğumuz sorulara cevaplarla başladı. Ardından yapay zekanın verilen komutlarla resim üretmesi, fotoğraflar üretmesi ve son zamanlarda da artık bu video üretimine kadar geldi. Burada sizin verdiğiniz verilerle, daha doğrusu verdiğiniz talimatlarla, istenilen herhangi bir ses kaydının oluşturulması, videonun oluşturulması, fotoğrafların oluşturulması çok ciddi dezenformasyonlara yol açabilir. Bunlarla ilgili de açıkçası farklı önlemlerin alınması oldukça zaruri. Burada özellikle kötü aktörler, dünyada bulunan kötü aktörlerin, ülkelerin bile birbirine düşürebilecek diplomasi, zafiyetten yol açabilecek bu tür ürünler üretmesi oldukça önemli. Bunların tespit edilip ortaya çıkarılması da ayrıca çalışması gereken önemli konulardan bir tanesi" şeklinde konuştu.

ABD'nin seçim süreçlerinde çok fazla insanların manipüle edildiği ve bu şekilde bazı firmaların veri toplayarak insanları manipüle etmek amacıyla yapay zekayı kullandığını bildiklerini aktaran Erbay, "Bunlar aslında biraz daha 2015, 2016, 2017 o süreçler. O süreçlerdeki yapay zekanın kullanımı ya da yapay zekanın çalıştığı algoritmalar ve donanımsal altyapılar şu anda aslında misli misli ilerlemiş durumda" ifade etti.

Dezenformasyonla ilgili çalışmalar şu an çok daha yüksek seviyelere ulaşmış durumda olduğunu belirten Erbay, "Bu yüzden aslında dikkat edilmesi gereken konular bunlar. İnsanların verileri artık ortamlarda, sosyal medyada ya da diğer ortamlarda erişilebilir durumda ve yapay zekadaki donanımların ilerlemesiyle birlikte bu verilerin analizi de aslında oldukça hızlanmış durumda. Bu sebeple bu sorunuza istinaden şunu söyleyebilirim. Devlet adamları, devlet yetkilileri bunların deepfake teknolojileri kullanarak oluşturulan görüntüleri ya da videoları başka ülkelerle aralarındaki ilişkileri bozmadığına kullanılabilir. Bunlar oldukça riskli. Tabii ki burada yapılan çalışmalar aslında bu teknolojilerle üretilen video veya resim veya ses kayıtlarının aslında gerçek olmadığını gösterecek çalışmalar da yapılabilir. Aslında bu çalışmalar da yine yapay zeka teknolojileri kullanarak yapılmaktadır. Biliyorsunuz dünyada yapay zeka modellerini geliştiren çok uluslararası büyük firmalar var. Özellikle Amerika Birleşik Devletleri'nde. Sabahki sunumlarda hocalarımız da bunları ifade etti. Dünyada baktığımız zaman Amerika Birleşik Devletleri, Çin ve Avrupa Birliği biraz daha bu konularda ön planda gözüküyor. Bunun en büyük, en temel sebebi de aslında geliştirdikleri büyük dil modelleri. Büyük dil modellerinin de geliştirilmesi için çok ciddi altyapılar gerekiyor. Donanımların oluşturulması gerekiyor. Örneğin Avrupa'da geliştirilen bir dil modeli için ihtiyaç duyulan altyapısal donanımların maliyeti yaklaşık 1 milyar dolardı. Bunlar maliyetli konular. Özellikle dil modellerinin geliştirilmesi anlamında. Türkiye'de de ülkemizde de böyle bir yapay zeka modelinin geliştirilmesi güvenlik anlamında oldukça önemli" diye konuştu.

Erbay, güvenlik tarafındaki analizlerin çok hızlı bir şekilde yapılması için kendi dil modellerini kullanmasının oldukça zaruri olduğuna bu anlamda da TÜBİTAK'ta yapılan çalışmaların olduğunu bildiklerini söyledi ve

bu konularla ilgili görüşlerin veya çalışmaların devam ettiğini söyledi.

Kaynak: İhlas Haber Ajansı / MEHMET KALAY - Genel
title