Alihan Çelik
Alihan, 6 yıldır teknoloji ve oyunlar ile alakalı editörlük yapıyor. Telefonlar, tabletler, son çıkan uygulamalar hakkında içerikler düzenliyor. Özellikle mobil gelişmeleri yakından takip ediyor.
ChatGPT hayatı kolaylaştırsa da, sağlık, terapi ve kişisel veri gibi alanlarda ciddi riskler taşıyor.
Kasım 2022’de hayatımıza giren ChatGPT, bilgiye hızlı ulaşmak isteyen milyonlarca kullanıcı için vazgeçilmez bir araç haline geldi. Ancak uzmanlar, yapay zekanın sunduğu bilgiler her zaman doğru olmayabileceği için bazı alanlarda dikkatli olunması gerektiği konusunda uyarıyor.
Yapay zeka, tıbbi teşhis veya tedavi önerilerinde bulunamaz. Avustralya’da yapılan bir araştırmada, kullanıcıların %10’unun sağlık sorularını ChatGPT’ye sorduğu ortaya çıktı. Ancak uzmanlar, bu tür cevapların hatalı olabileceğini ve kişilerin gerçek doktorlardan profesyonel yardım alması gerektiğini belirtiyor.
ChatGPT'nin duygusal destek sağlaması mümkün değil. Bilinçsiz bir yazılımın empati kurması da mümkün değil. Özellikle ruhsal sorunlar yaşayan kişilerin bir yapay zeka modeline bağlanması ciddi psikolojik riskler yaratabilir.
ChatGPT'den deepfake içerik ya da nefret söylemi üretmesini istemek yalnızca etik dışı değil, aynı zamanda yasa dışı. Bu tarz talepler, platform kurallarını ihlal ederken hukuki sonuçlar doğurabilir.
Sohbetler sırasında isim, adres, banka bilgisi gibi verileri paylaşmak güvenlik riski taşır.
2023’te bir Samsung çalışanının şirket verilerini ChatGPT’ye yüklemesi sonrası kurum, yapay zeka kullanımını tamamen yasakladı. Bu olay, veri güvenliğinin ne kadar kritik olduğunu bir kez daha gösterdi.
E-posta adresiniz yayınlanmayacaktır. Zorunlu alanlar * ile işaretlenmiştir.