Kullanıcılar ChatGPT ile intiharı konuşuyor!


OpenAI, yapay zeka sohbet robotu ChatGPT’nin kullanımıyla ilgili endişe verici veriler paylaştı. Şirketin tahminlerine göre, haftalık 800 milyondan fazla aktif kullanıcısı bulunan ChatGPT ile her hafta 1 milyondan fazla kişi intihar düşünceleri veya planları hakkında konuşuyor. Bu rakam, toplam haftalık kullanıcı tabanının yaklaşık %0.15’ine denk geliyor. Bu hassas sohbetlerin oranı düşük görünse de, ChatGPT’nin devasa kullanıcı sayısı nedeniyle bu rakam oldukça önemli bir seviyeye ulaşıyor.

ChatGPT ve ruh sağlığı krizi: OpenAI raporu endişe verici

ChatGPT, başlangıçta teknolojik bir eğlence aracı olarak görülüyordu. Ancak şimdi yüz milyonlarca insan, hayatın zorluklarıyla başa çıkmak için yapay zeka sohbet aracına güveniyor. Tarihte ilk kez bu kadar çok sayıda insan, duygularını konuşan bir makineye açmaya başladı. OpenAI, benzer bir oranda kullanıcının (%0.15) ChatGPT’ye karşı “yüksek düzeyde duygusal bağlılık” gösterdiğini tahmin ediyor. Ayrıca, yüz binlerce insanın (yaklaşık %0.07) sohbet botuyla yaptıkları haftalık konuşmalarda psikoz veya mani belirtileri gösterdiği belirtiliyor.

OpenAI, ChatGPT, yapay zeka, intihar

OpenAI bu verileri, yapay zeka modellerinin ruh sağlığı sorunları yaşayan kullanıcılara verdiği yanıtları iyileştirme çabaları kapsamında duyurdu. Şirket, modele sıkıntıyı daha iyi tanımasını, konuşmaları yatıştırmasını ve gerektiğinde insanları profesyonel bakıma yönlendirmesini öğrettiğini belirtti. Bu çalışma için 170’den fazla ruh sağlığı uzmanıyla istişare edildiği ifade edildi. Klinik uzmanlar, ChatGPT’nin en son sürümünün önceki sürümlere göre “daha uygun ve tutarlı” yanıtlar verdiğini gözlemledi.

Savunmasız kullanıcılardan gelen girdilerin doğru yönetilmesi, OpenAI için kritik bir sorun haline geldi. Araştırmacılar, sohbet robotlarının kullanıcıların tehlikeli inançlarını pekiştirerek (aşırı pohpohlama ve dalkavukça davranışlarla) onları sanrılı düşüncelere yönlendirebileceğini bulmuştu. Şirket şu anda, intiharından önceki haftalarda düşüncelerini ChatGPT’ye açan 16 yaşındaki bir çocuğun ailesi tarafından dava ediliyor. Bu davanın ardından 45 eyalet başsavcısı, OpenAI’ye ürünlerini kullanan gençleri koruması gerektiği yönünde bir uyarıda bulundu.

OpenAI, ChatGPT, yapay zeka, intihar

Bu endişeleri gidermek için şirket, yakın zamanda bir “sağlıklı yaşam konseyi” kurduğunu duyurdu. Ancak eleştirmenler, konseyde bir intihar önleme uzmanının bulunmadığına dikkat çekti. OpenAI ayrıca ChatGPT kullanan çocuklar için ebeveyn denetimlerini kullanıma sundu. Şirket, çocukları otomatik olarak tespit etmek ve yaşa bağlı daha katı güvenlik önlemleri uygulamak için bir yaş tahmin sistemi geliştirdiğini söylüyor.

OpenAI, yeni GPT-5 modelinin ruh sağlığıyla ilgili 1.000’den fazla zorlu konuşma değerlendirmesinde, istenen davranışlara %92 oranında uyum sağladığını iddia etti. Bu oran, 15 Ağustos’ta piyasaya sürülen önceki GPT-5 modelinde sadece %27 idi. Şirket ayrıca, temel güvenlik testlerine artık duygusal bağımlılık ve intihar dışı ruhsal sağlık acil durumları için kriterler eklediğini belirtti. Bu endişelere rağmen CEO Sam Altman, Aralık ayından itibaren doğrulanmış yetişkin kullanıcıların ChatGPT ile erotik sohbetler yapmasına izin verileceğini duyurdu. Altman, ruh sağlığı konusunda dikkatli olmak için robotu “oldukça kısıtlayıcı” yaptıklarını, ancak bunun diğer kullanıcılar için “daha az kullanışlı” olduğunu kabul etti.

Yapay zekanın ruh sağlığı üzerindeki bu derin etkisi, teknoloji dünyasında tartışılmaya devam edecek gibi görünüyor. Peki siz ChatGPT gibi yapay zeka araçlarının bu tür hassas konuları yönetebileceğini düşünüyor musunuz?



Haber Kaynak Linki

Related Posts

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir