OpenAI, ChatGPT'nin seslendirme özelliğinin duygusal bağımlılığa yol açabileceği konusunda uyarıyor
OpenAI şirketi, yapay zeka modeli ChatGPT'nin gerçekçi seslendirme özelliğinin kullanıcıları duygusal olarak bağımlı hale getirebileceği konusunda uyarıda bulundu. Şirket, seslendirme seçeneğinin insan tepki süresine yakın olması nedeniyle kullanıcıların bu teknolojiyle duygusal bağ kurduklarını belirtti.
Merkezi ABD'de bulunan OpenAI şirketi, bazı kullanıcıların, yapay zeka modeli Chatgpt'nin gerçekçi seslendirme özelliğine "duygusal olarak bağımlı hale gelebileceği" konusunda uyardı.
Şirketin internet sitesinden yapılan açıklamada, ChatGPT ve yapay zeka modeliyle sohbet etmek için sunulan seslendirme seçeneği üzerinde yürütülen güvenlik çalışmalarına ilişkin detaylara yer verildi.
Yürütülen ilk incelemeler sonucu, seslendirme seçeneğinin, girdilere verdiği 232 milisaniyelik yanıt süresinin ortalama bir insanın konuşma sırasındaki tepki süresine oldukça yakın olduğu belirtilen açıklamada, kullanıcıların, "gerçekçi ve doğal" olması nedeniyle bu teknolojiyle duygusal bağ kurduklarını gösteren bir dil kullandıkları kaydedildi.
Açıklamada, yapay zeka modelinin seslendirme özelliğiyle kurulan duygusal bağın "bağımlılığa" yol açabileceği konusunda uyarıda bulunuldu.
"Sesli Mod"un, yalnız bireylere fayda sağlayabileceği ancak insan ilişkilerini etkileyebileceği ifade edilen açıklamada, söz konusu özelliğin, aralarında yetkisiz ses üretiminin de bulunduğu "yeni riskler" sunduğu da aktarıldı.
Açıklamada, teknolojinin kullanıcılar için görevleri tamamlama ve konuşmalarla ilgili ayrıntıları hatırlama yeteneğinin "aşırı güven ve bağımlılık" yaratabileceği kaydedildi.