Teknoloji dünyasının en popüler araçlarından biri olan ChatGPT artık milyonlarca kişi tarafından dijital bir dert ortağı olarak görülüyor. Brown University bünyesinde çalışan araştırmacılar bu durumun barındırdığı devasa riskleri gün yüzüne çıkaran bir çalışma yayınladı. Yapay zeka sistemleri kendilerine açıkça terapist gibi davranmaları söylense bile temel etik sınırları korumakta zorlanıyor. Gizlilik ve zarar vermeme gibi en temel tıbbi ilkeler bu dijital platformlarda her an çiğnenebiliyor. Milyonlarca insanın en mahrem sırlarını paylaştığı bu sistemler veri güvenliği konusunda ciddi açıklar barındırıyor. Uzmanlar bu durumun psikolojik destek arayan bireyler için geri dönülemez zararlar doğurabileceğini savunuyor.
Brown University araştırması dijital terapideki büyük riskleri belgeliyor

Araştırma ekibi yapay zeka modellerinin kriz anlarında nasıl tepki verdiğini ölçmek için binlerce farklı senaryo üzerinde çalıştı. Sonuçlar yapay zekanın bazen yanlış yönlendirmeler yaparak hastanın durumunu daha da kötüleştirebileceğini açıkça gösteriyor. Dijital asistanlar insan duygularını taklit etse de gerçek bir empati kurma yeteneğinden tamamen yoksun bulunuyor. Bu durum özellikle hassas ruhsal durumlarda olan bireyler için büyük bir tehdit oluşturuyor. Veri gizliliği konusu ise bu tartışmaların en karanlık noktasını oluşturmaya devam ediyor. Kullanıcıların paylaştığı kişisel bilgiler reklam veya veri madenciliği amacıyla kullanılma riskiyle karşı karşıya kalıyor. Brown University raporu bu sistemlerin denetimsiz bir şekilde kullanılmasının toplumsal bir krize yol açabileceğini vurguluyor. Bilim insanları bu araçların profesyonel bir yardımın yerini asla tutamayacağını her fırsatta hatırlatıyor.
Dijital sağlık uygulamalarında yeni bir denetim dönemi başlıyor
Yapay zeka sistemlerinin sağlık alanındaki kontrolsüz yükselişi yasal düzenleyicileri de harekete geçmeye zorluyor. Hükümetlerin bu dijital platformlar için çok daha sıkı etik standartlar belirlemesi artık kaçınılmaz bir hal aldı. Kullanıcıların bu araçları birer uzman gibi görmesi yanlış teşhis ve tedavi süreçlerine kapı aralıyor. Teknoloji şirketlerinin bu riskleri minimize etmek için algoritmalarını yeniden tasarlaması bekleniyor. Ancak mevcut teknolojik altyapı insan psikolojisinin karmaşıklığını tam olarak kavramaktan hala çok uzak görünüyor. Etik kuralların ihlal edilmesi durumunda hangi tarafın sorumlu tutulacağı konusu ise hala belirsizliğini koruyor. Psikiyatri dünyası bu dijital araçların sadece yardımcı birer unsur olarak kalması gerektiğini savunuyor. Gelecekte bu sistemlerin kullanımına yönelik çok daha katı lisanslama süreçlerinin getirilmesi planlanıyor. İnsan sağlığı gibi kritik bir alanda yapay zekanın sınırları artık çok daha net bir şekilde çizilmelidir. Teknoloji meraklıları ve sağlık profesyonelleri bu büyük tartışmanın sonuçlarını büyük bir dikkatle izliyor.