Merkezi ABD’de bulunan OpenAI şirketi, birtakım kullanıcıların, yapay zeka modeli ChatGPT’nin gerçekçi seslendirme özelliğine “duygusal olarak bağımlı hale gelebileceği” konusunda uyardı.
Şirketin internet sitesinden yapılan açıklamada, ChatGPT ve yapay zeka modeliyle sohbet etmek için sunulan seslendirme seçeneği üzerinde yürütülen güvenlik çalışmalarına ait ayrıntılara yer verildi.
“GERÇEKÇİ VE DOĞAL SES BAĞIMLILIĞA YOL AÇABİLİR”
Yürütülen birinci incelemeler sonucu, seslendirme seçeneğinin, girdilere verdiği 232 milisaniyelik karşılık müddetinin ortalama bir insanın konuşma sırasındaki reaksiyon müddetine epey yakın olduğu belirtilen açıklamada, kullanıcıların, “gerçekçi ve doğal” olması nedeniyle bu teknolojiyle duygusal bağ kurduklarını gösteren bir lisan kullandıkları kaydedildi.
Açıklamada, yapay zeka modelinin seslendirme özelliğiyle kurulan duygusal bağın “bağımlılığa” yol açabileceği konusunda ihtarda bulunuldu.
“YENİ RİSKLER SUNUYOR”
“Sesli Mod”un, yalnız bireylere yarar sağlayabileceği lakin insan münasebetlerini etkileyebileceği söz edilen açıklamada, kelam konusu özelliğin, ortalarında yetkisiz ses üretiminin de bulunduğu “yeni riskler” sunduğu da aktarıldı.
Açıklamada, teknolojinin kullanıcılar için vazifeleri tamamlama ve konuşmalarla ilgili detayları hatırlama yeteneğinin “aşırı itimat ve bağımlılık” yaratabileceği kaydedildi.