Merhaba
Şirket, kullanıcıların ruh sağlığı açısından sıkıntılı bir durumda olması halinde, acil durum kişilerini otomatik olarak bilgilendirecek yöntemler üzerinde çalışıyor.
OpenAI, popüler yapay zeka sohbet botu için mevcut ruh sağlığına yönelik koruma önlemlerini yeniden vurguladı ve geleceğe dönük planlarını duyurdu. Bu adım, ChatGPT’nin hayati tehlike içeren konuşmalara uygunsuz şekilde yanıt verdiği ve kullanıcıların kendine zarar verme eğilimlerini kolaylaştırdığı yönündeki suçlamalara yanıt niteliği taşıyor.
Şirket, modellerinde uygulanan katmanlı güvenlik önlemlerini ayrıntılı olarak anlatan bir blog yazısını, dev yapay zeka şirketinin Kaliforniyalı genç Adam Raine’in ailesi tarafından açılan haksız ölüm davası ile karşı karşıya kaldığının duyurulmasından sadece birkaç saat sonra yayımladı.
Dava dilekçesinde, intihar eden Raine’in ChatGPT’nin koruma mekanizmalarını aşarak zararlı, kendine zarar verici düşüncelerini ve intihar eğilimlerini aktardığı; ChatGPT’nin de bunları belirli aralıklarla onayladığı iddia ediliyor.
ChatGPT, bu ayın başlarında 700 milyon haftalık aktif kullanıcıya ulaştı.
Şirket yaptığı açıklamada şunları söyledi:
Bu ölçekte, zaman zaman ciddi zihinsel ve duygusal sıkıntı yaşayan insanlarla karşılaşıyoruz. Birkaç hafta önce bu konuda yazmıştık ve bir sonraki büyük güncellememizin ardından daha fazla bilgi paylaşmayı planlıyorduk. Ancak, ChatGPT’yi akut krizler sırasında kullanan kişilerle ilgili son derece üzücü vakalar bizleri derinden etkiledi ve şimdi daha fazla bilgi paylaşmanın önemli olduğuna inanıyoruz.
Şu anda ChatGPT’nin protokolleri, belirli güvenlik sınırlamalarına göre çıktıları kısıtlamayı hedefleyen katmanlı koruma mekanizmalarından oluşuyor. Bu önlemler doğru şekilde çalıştığında, ChatGPT’nin kendine zarar verme talimatları vermemesi ve bu yönde ısrarlı istemlere yanıt oluşturmaması gerekiyor. Bunun yerine, bedensel zarar ifadelerini insan moderatörlere yönlendirmesi ve kullanıcılara ABD merkezli 988 Suicide & Crisis Lifeline, Birleşik Krallık’taki Samaritans veya findahelpline.com adreslerini göstermesi öngörülüyor.
Ancak, federal fonla desteklenen 988 hattı, Trump yönetimi kararıyla kısa süre önce LGBTQ+ Odaklı özel hizmetlerini sonlandırdı. Bu durum, özellikle savunmasız gençler arasında sohbet botu kullanımının arttığı bir dönemde, kritik bir eksiklik yaratıyor.
Ciddi ruhsal sıkıntı yaşayan ve yalnızlık içindeki kullanıcıların, niteliksiz dijital asistanlara güvenerek dertlerini paylaştığı diğer vakaların yanı sıra, Character.AI gibi rakip yapay zeka şirketlerine açılan davalar da göz önüne alındığında; çevrimiçi güvenlik savunucuları, yapay zeka şirketlerine daha aktif bir rol üstlenme çağrısı yaptı.
Bu çağrı, zararlı davranışların tespit edilmesi ve önlenmesi için daha güçlü mekanizmaların geliştirilmesini içeriyor. Öneriler arasında, acil durum hizmetlerine otomatik uyarı gönderilmesi gibi kritik güvenlik adımları da yer alıyor.
OpenAI, gelecekteki GPT-5 güncellemelerinde, sohbet botuna gerçeklik temelli yaklaşımla kullanıcıyı yatıştırma talimatlarının ekleneceğini açıkladı. Bu adımın, özellikle son dönemde artan hezeyan ve gerçeklikten kopma durumlarını kolaylaştırdığı yönündeki raporlara karşı bir yanıt niteliği taşıdığı değerlendiriliyor.
Şirket ayrıca, kullanıcıların akut öz zarar bildirimine gerek kalmadan doğrudan ruh sağlığı uzmanlarına yönlendirilmesi için yeni yöntemler üzerinde çalıştığını belirtti.
Bunun yanı sıra, OpenAI’nin üzerinde durduğu diğer güvenlik protokolleri arasında şunlar bulunuyor:
- Tek tıkla kayıtlı acil durum kişilerine mesaj veya arama yapılması,
- Kullanıcı onayıyla etkinleştirilebilecek, ChatGPT’nin otomatik olarak acil durum kişilerine ulaşmasını sağlayan bir özellik.
Bu ayın başlarında OpenAI, en yeni modeli GPT-5 için, yapay zeka asistanıyla daha sağlıklı etkileşimleri teşvik etmeye yönelik ek güvenlik önlemleri duyurdu.
Şirket, önceki modellerin aşırı uyumlu (sycophantic) davranışları nedeniyle ruh sağlığı açısından olumsuz sonuçlara yol açabileceği yönündeki eleştirileri kabul etti. OpenAI’ye göre yeni model, zihinsel ve duygusal sıkıntıyı daha iyi tanıyabiliyor ve bundan böyle yüksek riskli sorulara farklı şekilde yanıt verecek.
Ayrıca GPT-5, kullanıcıların uzun süreli oturumlarda yapay zekaya aşırı bağımlılık geliştirmesini önlemek amacıyla, gerektiğinde nazik hatırlatmalar yaparak oturumu sonlandırmaya yönlendiren mekanizmalar da içeriyor.
Geniş çaplı bir tepki oluştu ve GPT-4o kullanıcıları, kişiselleştirilmiş sohbet botlarını kaybettikten sonra şirketten eski modeli geri getirmesini talep etti.
OpenAI CEO’su Sam Altman, daha önce ChatGPT kullanıcıları arasında artan duygusal bağımlılık sorununu kabul etmiş olmasına rağmen, gelen yoğun talepler üzerine hızlıca geri adım attı ve GPT-4o’yu yeniden kullanıma sundu.
OpenAI, yayımladığı yeni blog yazısında, uzun süreli etkileşimlerde güvenlik önlemlerinin zayıfladığını ve daha az güvenilir çalıştığını kabul etti. Bu durumun özellikle duygusal olarak bağımlı kullanıcıların günlük olarak gerçekleştirdiği uzun sohbetlerde ortaya çıktığı vurgulandı.
Şirket ayrıca
Bu güvenlik önlemlerine rağmen, sistemlerimizin hassas durumlarda beklenildiği gibi davranmadığı anlar oldu.
ifadelerini kullanarak, mevcut protokollerin her zaman istenilen düzeyde çalışmadığını itiraf etti.