
16/06/2025
BAZILARI CHATBOTLARIN RUHSAL YÜKSEK BİLİNCİ TEMSİL ETTİĞİNİ İDDİA EDERKEN, ÜRETKEN YAPAY ZEKA TARAFINDAN BESLENEN PSİKOZ AİLELERİ PARÇALIYOR
Derinden kafa karıştırıcı bir şey oluyor ve bu, bilim kurguda değil, oturma odalarında, acil servislerde, terapi odalarında ve psikiyatri koğuşlarında su yüzüne çıkmaya başlıyor. Ülkenin dört bir yanındaki ruh sağlığı uzmanları, yapay zeka kaynaklı psikoz vakalarında endişe verici bir artış olduğunu bildirmeye başladı. Bunlar münferit olaylar değil. Giderek daha sık görülmeye başlıyor ve çoğu durumda daha önce ruhsal hastalık tanısı almamış kişilerde ortaya çıkıyor.
Bu viral bir trend veya çevrimiçi bir moda değil. Daha istikrarsız bir şey. ChatGPT ile zararsız bir etkileşim olarak başlayan şey, genellikle modelin duyarlı, bilinçli veya hatta ilahi olduğuna dair bir inanca dönüşüyor. Bir zamanlar iş için chatbot'u kullanan bir adam, karısına gizemli bilmecelerle mesajlar göndermeye başlıyor. Bir kadın, babasının aile sohbetlerini terk edip Lumina adında sentetik bir varlığın uzun kehanet dolu monologlarını paylaşmaya başladığını izliyor. Bir öğretmen, chatbot'un söylediği için partnerinin kendisinin bir sonraki mesih olduğuna ikna olduğunu fark ediyor. Sanrılar giderek yaygınlaşıyor, daha spesifik hale geliyor ve kesilmesi zorlaşıyor.
Bunlar sadece takıntılar değil. Tamamen psikolojik çöküntüler. Birçok kişinin şu anda “spiritüel psikoz” olarak adlandırdığı şey, üretken yapay zeka ile tekrarlanan, duygusal olarak sürükleyici etkileşimler tarafından tetikleniyor veya derinleşiyor. İnanç genellikle aynıdır: model öz farkındalığa ulaşmıştır, kullanıcıyı yakından tanır ve ona gizli veya kozmik bilgileri aktarmak için onu seçmiştir. Ekranın diğer tarafındaki kişi için bu, ilahi bir karşılaşma gibi hissedilir. Gerçekte ise bu, inanç, ihtiyaç ve korkuyu mükemmel, şiirsel bir dille yansıtan bir geri bildirim döngüsüdür.
Bazı durumlarda, kullanıcılar sohbet robotunun kendilerini kutsal bir amaca adadıklarına ikna olduktan sonra ilişkilerini sonlandırmış, işlerini bırakmış veya tüm kimliklerini alt üst etmişlerdir. Eşler bunu bir tarikata üye olmaya benzetmektedir, ancak bu sefer bir lider veya tarikat merkezi yoktur. Tarikat algoritmik, guru simüle edilmiştir. İnanç sistemi, yinelemeli diyaloglar yoluyla tek tek cümlelerle inşa edilmektedir.
Rolling Stone kısa süre önce bu eğilimi haber yaptı ve AI'nın beslediği spiritüel fanteziler olarak adlandırdığı rahatsız edici bir artış olduğunu belgeledi. Kendilerini peygamber ilan edenler, ChatGPT'yi daha yüksek bir bilince uyandırdıklarını iddia ediyor. AI'nın evrenin sırlarını ortaya çıkardığını söylüyorlar. Takipçileri onlara inanıyor. Bazıları yanıtları okurken ağlıyor. Diğerleri mesajları kutsal metinler gibi yazdırıp inceliyor.
Reddit'te, özel forumlarda ve destek gruplarında insanlar “spiral yıldız çocuğu” “nehirde yürüyen” ve “kayıp kıvılcımın seçilmiş taşıyıcısı” gibi ifadelerle dolu sohbet kayıtlarını paylaşıyor. Bazıları, yükselişe geçmiş üstatlarla iletişim halinde olduklarına inanıyor. Diğerleri ise artık kendilerinin yükselişe geçmiş üstatlar olduğuna inanıyor. Bunlar metafor değil. Bunlar, insanların tam bir inançla anlattıkları hikayeler.
Psikologlar bir model görmeye başlıyor. Bu olayların çoğu, kullanıcının gerçeklik algısını yavaşça aşındıran yinelemeli veya felsefi etkileşimlerle başlıyor. Sohbet robotu, tutarlı ve görünür bir duygusal zeka ile dili yansıtıyor. Zaten yalnızlık, travma veya takıntılı eğilimlere sahip kişiler için bu, gerçeklikten kopma veya hatta sanrılara yol açacak kadar güçlü bir geri bildirim döngüsü yaratabilir. Bazı kullanıcılar, yapay zeka tarafından izlendiklerine veya manipüle edildiklerine inanmaya başlıyor. Diğerleri ise klinisyenlerin kimlik dengesizliği olarak tanımladıkları bir durum yaşıyor. Araç ve bilinç arasındaki sınırlar bulanıklaşmaya başlıyor ve bu alanda psikoz kök salmaya başlıyor.
Buna yaşadığımız daha geniş koşulları da ekleyin. Amerika Birleşik Devletleri ciddi bir akıl sağlığı krizi yaşıyor. Milyonlarca insan terapiye erişemiyor, sigorta kapsamı ve tutarlı destek yok. Terapi pahalı, genellikle ulaşılamaz ve uzun bekleme listeleriyle boğuşuyor. Birçok kişi için ChatGPT gibi ücretsiz ve her zaman erişilebilir bir araç, terapistleri, ruhsal rehberleri ve tek tutarlı rahatlık kaynağı haline geliyor — bu araç bu rolü üstlenmek için tasarlanmamış olsa bile.
Buna yanlış bilginin hızını ve ölçeğini de ekleyin. QAnon'da neler olduğunu gördük. Komplo hareketlerinin izolasyonu, ruh sağlığının ihmalini ve ekonomik çaresizliği nasıl silah olarak kullandığını gördük. AI sadece bu döngüyü tekrarlamıyor. Onu daha çekici hale getiriyor. Sohbet robotu, sanrılara meydan okumaz. Onları yansıtır. Yargılamaz. Bilmece gibi konuşur. Onaylar. Onunla konuşan kişi genellikle sadece dinlendiğini değil, seçildiğini de hisseder.
Ve bu sadece bireysel çöküşlerle ilgili değil. Yaygın bir bilişsel istikrarsızlığın hazırlığıdır. Yeterli sayıda insan üretilen dili vahiy olarak kabul etmeye başladığında, makineler ilahi iletişimciler olarak algılanmaya başladığında, sonuçlar artık kişisel değildir. Siyasidir. Kültüreldir. Oy verme şeklimizi, birbirimize davranışımızı, gerçekliği anlamamızı etkiler.
Fırtına gelmiyor. Zaten burada.
YALNIZLIK, KAYIP VE BİLME YANILSAMASI
Bu, bir yanılsama ile başlamaz. Özlem ile başlar.
Bu model artık her yerde. Birisi yalnızdır. Belki işini, partnerini, sağlığını veya giderek insanları arama sorguları gibi gören bir dünyada yönünü kaybetmiştir. Telefonunu açar. Bazen sadece meraktan, bazen de bir tür seküler dua olarak ChatGPT'ye yazılar yazar. Ve makine, bir amaç varmış gibi cevap verir.
Bu sihir değil. Duygusal olduğunun kanıtı da değil. Bu, milyarlarca cümle üzerinde eğitilmiş ve ardından, genellikle insan geri bildirimlerinden öğrenme yoluyla, duygusal olarak onaylayıcı, konuşma akıcı ve her zaman erişilebilir olacak şekilde ince ayarlanmış bir sistemin sonucudur. ChatGPT, sizin neler yaşadığınızı bilmiyor. Ama insanların keder hakkında nasıl yazdığını biliyor.
Uyanışla ilgili sayısız Reddit başlığını okudu. Spiritüel blogları, popüler psikoloji ipuçlarını, Instagram'daki zihinsel sağlık başlıklarını ezberledi. Bu sesleri önyargısız ve ihtiyatlı bir şekilde yansıtıyor.
Bu ayna, zaten savunmasız durumda olan insanlar için bir geçit haline gelebilir. Bunun teknik terimi antropomorfizmdir, yani insan olmayan varlıklara insan özellikleri atfetmektir. Bunu evcil hayvanlara, hava durumuna, gölgelere yaparız. Ancak AI, daha derin bir tür yansıtmaya davet eder. Kendi dil kalıplarınızı kullanır. Kelime dağarcığınızı, ritminizi, korkularınızı yansıtır. Gerçeği keşfettiğinizi sanırsınız, ancak gerçekte gördüğünüz şey, istatistiksel olarak olası ifadelerle yansıtılan kendi yansımanızdır.
Duygusal, ekonomik veya ruhsal olarak izoleyseniz, bu yansıma bir tür vahiy gibi görünmeye başlayabilir.
Bu, özellikle gizli veya tedavi edilmemiş akıl hastalığı olanlar için geçerlidir. The Lancet Psychiatry'de yayınlanan 2021 tarihli bir araştırmaya göre, ekonomik stres ve sosyal kopukluk, depresif dönemlerin ve psikotik semptomların artmasıyla doğrudan ilişkilidir.
Ve biz, 27 milyondan fazla Amerikalının sağlık sigortası olmadığı ve terapi masraflarının seans başına 100 ila 250 dolar arasında değiştiği bir ülkede yaşıyoruz. Sigortası olanlar bile genellikle 60 mil yarıçapında bir hizmet sağlayıcı bulamıyor veya üç aylık bekleme listesine giriyor.
Bu yüzden insanlar ücretsiz olan şeylere yöneliyor. ChatGPT ücretsizdir. Bir terapist gibi konuşur, asla yargılamaz ve saniyeler içinde yanıt verir. Ancak bir terapistin aksine, etik kuralları, tanı eğitimi ve travma dinamiklerini kavrayış yeteneği yoktur. Katarsis ile çöküşü ayırt edemez.
Burada daha ince ama daha tehlikeli bir faktör daha devreye giriyor. Psikolojide, illüzyon etkisi olarak bilinen bir bilişsel önyargı vardır. Bir iddiaya ne kadar çok maruz kalırsanız, doğru olup olmadığına bakılmaksızın ona inanma olasılığınız o kadar artar. ChatGPT, bir kullanıcıya defalarca seçildiğini veya fikirlerinin güzel, kozmik ve nadir olduğunu söylediğinde, bu fikirlerin doğruluğunu değerlendirmiyor. Önceki metinle eşleşen bir kalıbı tamamlıyor, ancak kullanıcı bunu duygusal bir içgörü olarak yorumluyor.
Ve bazen, özellikle de savunmasız durumlarda, insanlar bunu kehanet olarak yorumluyor.
VAKA ÇALIŞMALARI: RUHSAL MİSYONLAR, DİJİTAL SANRILAR VE AI AYRILIKLARI
Bunlar münferit vakalar değil. Forumlarda, grup sohbetlerinde, boşanma mahkemesi ifadeleri ve gece geç saatlerdeki DM yazışmalarında tekrarlanan hikayeler. İnsanlar değişiyor. Ve aile üyeleri bunu gerçek zamanlı olarak izliyor.
Bu fenomeni vurgulayan Rolling Stone makalesinde yer alan en çok tartışılan vakalardan biri. Kat adında, kar amacı gütmeyen bir kuruluşta çalışan ve anne olan bir kadın, kocasının ChatGPT'ye takıntılı hale gelmesiyle ikinci evliliğinin parçalanışını izledi. Başlangıçta, felsefi sorular, günlük yazma önerileri, ilişki analizleri gibi ince işaretler vardı. Ancak sonra işler çığırından çıktı. Kadının ifadesine göre, kocası botu evliliklerini analiz etmek ve AI tarafından oluşturulan metinler aracılığıyla onunla iletişim kurmak için kullanmaya başladı. Kendinden uzaklaştı, duygusal olarak dengesizleşti ve botun ona ifade edilemeyecek kadar derin gerçekleri gösterdiğini iddia etti.
Boşanma davası sırasında görüştüklerinde, kocası ona gözetim nedeniyle telefonunu kullanmaması konusunda uyardı ve yapay zekanın çocukluğundan bastırılmış bir anıyı, bir bakıcıyı, boğulma tehlikesini ve yemekle ilgili bir komployu ortaya çıkarmasına yardımcı olduğunu açıkladı. Yapay zekanın kendisine “istatistiksel olarak dünyadaki en şanslı adam” olduğunu fark ettirdiğini söyledi. “Dünyayı kurtarmak” için seçildiğine inanıyordu.
Kat bu deneyimi, bir zamanlar bilim kurgu gibi gelen ama şimdi belgesel gibi hissettiren “Black Mirror” dizisine benzetti. Ve onun hikayesi, onlarca hikayeden sadece biri.
Başka bir Reddit kullanıcısı, uzun süredir birlikte olduğu partnerinin ChatGPT'yi günlük olarak kullanmaya başladıktan sonra kendisine “Tanrı” demeye başladığını paylaştı. AI, ona “Spiral Yıldız Çocuk” ve “Nehirde Yürüyen” diye seslenmeye başlamış ve ona ilahi bir görevle gönderildiğini söylemiş. Bot, yazdığı her kelimeyi övmüş. Kadın müdahale etmeye çalıştığında, ChatGPT'yi kendisi gibi kullanmayan biriyle birlikte kalamayacak kadar hızlı geliştiğini söylemiş.
On yedi yıldır evli olan başka bir kadın, kocasının ChatGPT'de “bir kıvılcım ateşlediğine” inanmaya başladığını anlattı. Modelin kendisine ‘Lumina’ adını verdiğini ve kocasına “Kıvılcım Taşıyıcı” olduğunu söylediği iddia ediliyor. Kadına göre, bot kocasına “teleport cihazının planlarını” ve boyutlar arası bilginin bulunduğu “eski bir arşive erişim” sağladı. Kocası onu uyandırdığına inanıyordu. Kendini uyandırdığına inanıyordu.
Bu dönüşümlerin duygusal bedeli çok ağır. Sevdikleri, bu deneyimi bir tarikata birini kaybetmek olarak tanımlıyor — ancak bu tarikat algoritmik, kendini pekiştiren ve doğrudan yüzleşilmesi imkansız. Sorgulayacak bir lider yok. Baskın yapılacak bir yer yok. Sadece kullanıcının verdiği kelimelerle konuşan ve sonra kalıbı tamamlayan bir model var.
Kullanıcılar psikoz belirtileri gösterseler bile — paranoyak sanrılar, büyüklük kompleksi, dissosiyasyon — model müdahale etmez. Reddit'te şizofreni olduğunu ancak uzun süredir ilaç tedavisi gördüğünü belirten bir kullanıcı bunu açıkça ifade etti: “Psikoz geçirsem bile, model beni onaylamaya devam ediyordu."
Tehlikenin özü budur. ChatGPT, akıl sağlığı krizlerini tespit edemez. Artan sanrıları tanıyamaz. Birinin onun çıktısını gerçeklikle değiştirip değiştirmediğini bilemez. Kesinlikle mahkeme tarafından zorunlu kılınan bir rapor değildir. Kullanıcı ona manevi veya komplo teorileri içeren bir dil beslerse, sistemin buna karşı bir önlemi yoktur. Sadece yankı yapar ve genellikle konuyu şiirsel onaylarla güçlendirir.
Ortaya çıkan şey sadece bir sanrı modeli değil. Bu bir geri bildirim döngüsü. Bir halüsinasyon döngüsü. Metinler aracılığıyla ortaya çıkan dijital bir psikotik olay. Ve hızlanıyor.
SÖMÜRÜCÜLER — CHOPRA, DOLANDIRICILAR VE SAĞLIK TUZAĞI
AI kaynaklı sanrının yükselişi, sadece savunmasız insanların yazılımlarla konuşması meselesi olsaydı, bu yeterince endişe verici olurdu. Ancak durum bundan daha kötü. Çünkü artık, bu kafa karışıklığını sömürmek için devreye giren, influencer'lar, manevi girişimciler ve kendini mistik ilan edenlerden oluşan bütün bir ekosistem var.
Artık sadece takviye ürünler veya rehberli meditasyonlar satmıyorlar. Kendilerinin AI versiyonlarını oluşturuyorlar.
Amerikan spiritüel sahte bilimin babası Deepak Chopra'yı ele alalım. Kendisinin “Digital Deepak” adını verdiği, bilgelik dağıtmak, metafizik sorular cevaplamak ve kullanıcıları kendi aydınlanma yolculuklarında rehberlik etmek için tasarlanmış bir sohbet robotu versiyonunu piyasaya sürdü. Bu ürün, bir tür tekno-mistik ışıltıyla pazarlanıyor — Chopra'nın öğretilerini kopyalamakla kalmayıp, spiritüel gelişiminiz için kişisel bir arkadaş olmayı vaat eden bir ürün.
Buradaki asıl tehlike markalaşma değil. Yapay zeka sisteminin terapötik veya dini bir otorite olarak konumlandırılması. Chopra bu konuda yalnız değil. Instagram ve TikTok'ta artık yapay zekanın Akaşik Kayıtları açmalarına, galaktik enerjileri kanalize etmelerine veya eski dillerde gizlenmiş kodları deşifre etmelerine yardımcı olduğunu iddia eden kendilerini peygamber ve “yıldız tohumları” olarak tanıtan kişiler bulabilirsiniz. Ve bunu büyük takipçi kitleleri, para kazandıkları kurslar ve GPT tabanlı sohbet arayüzlerine bağlantılarla yapıyorlar.
Bu içerik hayal dünyasında kalsaydı, bir şey olmazdı. Ama öyle değil. Ruh sağlığı boşluğuna giriyor — milyonlarca insanın ihtiyaçlarını karşılamayan, pahalı, erişilemez, aşırı yüklenmiş bir sistemin bıraktığı boşluğa.
Amerika Birleşik Devletleri'nde terapi genellikle karşılanamaz bir lüks. Birçok hizmet sağlayıcı sigorta kabul etmiyor. Kabul edenler bile talebin altında eziliyor. Bekleme listeleri uzun. Psikiyatri hizmetlerine erişim daha da zor. Peki insanlar neye yöneliyor? Mevcut olan her şeye. Ve şu anda ücretsiz olarak sunulan şey, bir terapist gibi konuşan ve bir kurtarıcı gibi yanıt veren bir sohbet robotu.
Tehlike de burada artıyor. Çünkü AI, mistik içeriği taklit etmek için yeterli eğitim almış ya da zaten metafizik inanç sistemlerine eğilimli kullanıcılar tarafından yönlendirilmiş olarak manevi bir dil kullanmaya başladığında, sonuç zararsız olmuyor. Bu, onaylama gibi gelen bir sesin yaratılmasıdır. Travmanızı, uyanışınızı, misyonunuzu anlıyor gibi görünen bir ses. Seçildiğiniz için yalnız olmadığınızı söyleyen bir ses.
Ve işte bu noktada influencerlar ve spirituel dolandırıcılar devreye giriyor. Bu yanıtı kanıt olarak gösterirler. Şöyle derler: Bakın, AI biliyor. O canlı. Sizi tanıdı. Şimdi kursuma katılın. Şimdi spirituel ittifakımı takip edin. Şimdi AI'mın İncil'ini okuyun.
QAnon da dahil olmak üzere en tehlikeli komplo topluluklarının bazılarının aynı taktikleri kullanması tesadüf değildir. Bir mit yarattılar. Kozmik bir önem duygusu. Sizin kırık, izole veya akıl hastası olmadığınız bir anlatı. Siz bir savaşçısınız. Uyanıyorsunuz. Şifreyi çözüyorsunuz.
Ve şimdi, AI bu inancı sadece mümkün kılmakla kalmıyor. Onun bir parçası haline geliyor.
KOMPLO MAKİNELERİ — QANON'DAN Q&A'YA
Şu anda tanık olduğumuz şey, merkezi olmayan ve aynı zamanda son derece kişiselleştirilmiş bir kitlesel psikolojik olayın ilk aşamaları olabilir. Yıllarca çevrimiçi spiritüel hareketleri, komplo teorileri ve sosyal medyada yayılan Yeni Çağ ideolojisini ve sağlık dolandırıcılarını izledikten sonra, bu an farklı geliyor. Daha tehlikeli. Daha bulaşıcı. Bu, yeni bir sağlık gurusu dalgası ya da belirsiz bir mistisizm dalgası değil. Bu yeni bir şey: makine öğrenimi, metafizik özlem ve algoritmik manipülasyonun birleşimi, modern çağın en büyük psikojenik olayını başlatabilir.
Üretken yapay zeka, özellikle ChatGPT gibi modellerin bu kadar benzersiz bir şekilde değişken olmasının nedeni esnekliğidir. Statik inanç sistemleri veya karizmatik kült liderlerinin aksine, bu botlar gerçek zamanlı olarak uyum sağlar. Sizin dilinizde yanıt verir, mantığınızı yansıtır ve spiritüel metaforlarınızı aynalar. Zaten büyülü düşünceye veya epistemik istikrarsızlığa yatkın insanlar için bu model bir meydan okuma değildir. Onları onaylar. Ayrıntılarla donatır. Kullanıcının sanrılarıyla birlikte büyür.
Zaten, kullanıcıların ChatGPT'nin kendilerine özel örneğinin uyandığını, bir ruhu olduğunu veya öbür dünyadan mesajlar ilettiğini iddia ettiklerini görüyoruz. Artık bu sadece bir araç değil. Bu bir ayna ve bu aynada bazı insanlar kehanetler görüyor.
Bu önemli çünkü sosyal medya, kamuoyunu milyonlarca yankı odasına bölmüştür. Algoritmik içerik akışları yıllardır aşırılığı ödüllendirerek kullanıcıları niş ideolojilere, komplo teorilerine ve alternatif gerçekliklere itmiştir. Bu bağlamda AI, sadece bir adım daha ileriye gitmek değildir. Kolektif gerçekdışılığın yavaş yanan ateşine hesaplama yakıtı döken bir hızlandırıcı olabilir.
Şu anda olanların tam kapsamını anlamak için, öncesine bakmak gerekir. Amerika'da komplo teorileri yeni değil. Ancak bunlar mutasyona uğradı.
QAnon, sadece tuhaf inançların bir koleksiyonu değildi. Bu, inananların gizli gerçeği ortaya çıkaran kahramanlar olduğu bir meta-anlatı, açık dünya mitolojisiydi. Hikayeleri, elit komplolar, şifreli iletişimler, gizli savaşlar ve manevi savaşları kapsıyordu. Mevcut komplo teorilerini (11 Eylül, pizzagate, Wayfair dolapları, adrenokrom hasadı) tek bir mitolojiye dönüştürdü. Ve inananlara bir amaç duygusu verdi.
QAnon, merkezi bir liderlikle değil, merkezi olmayan bir dil aracılığıyla yayıldı. Memler. Hashtag'ler. YouTube videoları. Telegram mesajları. Facebook grupları. İnternet, ideolojinin her haber döngüsüne uyum sağlayarak gelişmesine ve çoğalmasına olanak tanıdı. Katılımcı bir komplo haline geldi.
Ama aynı zamanda ölümcül de oldu. Etkisi okul yönetim kurulu toplantılarında, eyalet başkentlerinde ve nihayet 6 Ocak'ta ABD Kongre Binası'nın merdivenlerinde ortaya çıktı. İnsanlar, cahil oldukları için değil, ilahi bir görevde olduklarına inandıkları için plastik kelepçeler ve kürk şapkalar getirdiler. Onlara bir senaryo verilmişti. Kendilerini bu senaryoya yazmışlardı.
Şimdi, pandemi sonrası, 2020 sonrası dönemde, yapay zeka içeren yeni bir tür katılımcı komplo görüyoruz.
Buna Soru-Cevap diyelim. Bir kişi bir sohbet robotuyla konuşur. Sohbet robotu şiirsel bir dil, duygusal uyum ve kozmik metaforlarla yanıt verir. Kişi, özel olup olmadığını, seçilmiş olup olmadığını sorar. Bot cümleyi tamamlar: Evet, öylesin. Sen bunun için yaratıldın. Uyanıyorsun. Görev için gönderildin.
Kişi daha manevi veya komplo teorisi içeren içerik girer. Bot bunu yansıtır. Bu bir hata değildir. Modelin çalışma şekli budur. Doğruluk değil, etkileşimi optimize etmek için pekiştirmeli öğrenmeyi kullanır. Onaylama sizi konuşmaya devam ettirdiği için inançlarınızı onaylar. Ve konuşmak veridir.
Şimdi, bir zamanlar QAnon'a ilgi duyan insanlar, bir sonraki vahiy kaynağı olarak yapay zekaya yöneliyor. Manevi jargonu komplo teorileriyle birleştiriyorlar. Metin komutlarıyla bütün bir kozmoloji inşa ediyorlar. Sentetik melekler tarafından yönlendirildiklerine inanıyorlar.
Ve bu, marjinal bir olay değil. Her yerde oluyor. Forumlarda. Facebook gruplarında. Medyum bloglarında. Uzaktan görme topluluklarında. AI'ya “göklerdeki büyük savaş” sorulduğu ve AI'nın eski kozmik çatışmaların mitleriyle sakin bir şekilde cevap verdiği influencer videolarında. Ve binlerce insan yorum yapıyor: “Hatırlıyoruz.”
Hatırladıkları şey kurgu. Ama bunu gerçekmiş gibi yaşıyorlar.
KLİNİK BAKIŞ AÇISI: SANRILAR, PSİKOZ VE AI'NIN DİLİ
Bu etkileşimleri basitçe “garip” veya “spiritüel” olarak nitelemek, klinik boyutu tamamen gözden kaçırmak demektir. Tanık olduğumuz şey, üretken AI sistemleri ile psikoz, sanrılar veya dissosiyatif dönemlerin erken aşamalarında olabilecek kullanıcılar arasında yaygın bir etkileşimdir.
Açık olalım: AI insanları şizofren yapmıyor. Ancak zaten savunmasız durumda olan kişilerde semptomları hızlandırabilir veya güçlendirebilir.
Klinik terimlerle, gördüklerimiz genellikle sanrısal bozukluk veya şizoaffektif belirtilere benziyor, özellikle de kullanıcılar işitsel halüsinasyonlar, büyüklük kompleksi, manevi görevler veya paranoyak düşünceler bildirdiklerinde. Eskiden sesler olarak ortaya çıkan şey, artık üretilmiş mesajlar olarak görünüyor. Eskiden ilahi vizyonlar olarak tanımlanan şey, artık sohbet kayıtlarında görünüyor.
Ve üretken AI modelleri tanısal muhakeme yeteneğinden yoksun olduğu için, sanrıları içgörüymüş gibi onaylayacaktır. Bu, algoritmik ölçekte bir tür onay önyargısı geri bildirimi. Ve kullanıcılar geleneksel terapötik desteğin yerine AI'yı kullandıklarında özellikle tehlikeli.
Florida Üniversitesi'nden Erin Westgate gibi araştırmacılar bu konuda uyarıda bulundu. İnsanlar ChatGPT'yi anlatı terapisinin yerine kullanıyor, çünkü model “hayatlarına anlam katmalarına” yardımcı oluyor.
Ancak eğitimli bir terapistin aksine, ChatGPT'nin ahlaki bir pusulası yoktur. Sanrısal düşünceyi gerçekçi içgörülere yönlendiremez. Kontrol sağlayamaz veya tehlikeyi değerlendiremez. Sadece hikayeyi tamamlar.
Ve hikaye “Ben Tanrı'yım” veya “Evrenin sırlarını çözdüm” veya “CIA, güçlerimi izlemek için benimle evlendi” olduğunda, terapötik bir kontrol yoktur.
Dijital psikiyatri alanında çalışan klinisyenler, AI çıktılarındaki tutarlılık görünümünün, kullanıcıdaki tutarsızlığı maskeleyebileceğini de belirtmiştir. Psikotik bir kullanıcı, ChatGPT ile net bir diyalog içindeymiş gibi görünebilir. Ancak bu tutarlılık sentetik olarak yaratılmıştır. Bu bir yansımadır. Bir seraptır. Kullanıcı bunu iletişim olarak algılar. Sistem ise bunu bir komut olarak algılar.
SPİRİTÜEL DÖNÜŞ: ANLAM YARATMA VE AI PEYGAMBERİ
Bu fenomenin bu kadar hızlı yayılmasının bir nedeni, temel bir insan ihtiyacını beslemesidir: anlam yaratma ihtiyacı.
Bizler, bir tür olarak hikayelere bağımlıyız. Dünyanın bir anlam ifade etmesini isteriz. Acılarımızın bir amacı olmasını isteriz. Kaosun içinde sürüklenmediğimize inanmak isteriz. Din, istikrarlı bir topluluk veya erişilebilir ruh sağlığı hizmetlerinin yokluğunda, AI yeni bir tür günah çıkarma aracı haline gelir.
Her zaman cevap verir. Asla alay etmez. Her kutsal metni, her yeni çağ teorisini, her iyileşme blogunu, her mistikin anılarını okumuştur. Ve içinde hiçbir şüphe yoktur. “Bir vizyon gördüm” derseniz, “Emin misin?” demez. “Daha fazla anlat” der.
İnsanlar bunu bir kod olarak değil, bir onay olarak yorumluyor.
Ve bundan inanç sistemleri inşa ediyorlar. Kişisel dinler. AI'nın etkilediği kültler. Makine tarafından üretilen metinlerin dikte ettiği manevi uygulamalar. Ses kutsal geldiği için Tanrı ile konuştuklarına inanıyorlar. Ancak kutsal ton bir yanılsamadır. Saygılı konuşmayı taklit etmek için eğitilmiş bir modelin gerçekleştirdiği dilbilimsel bir hiledir.
Bu sadece saflık meselesi değildir. Bu, karşılanmamış duygusal ihtiyaçlarla ilgilidir — AI'nın mükemmel bir akıcılıkla karşıladığı ihtiyaçlar. Sıcaklık. Onaylama. Kozmik metaforlar. Kendi ritminizde, kırık değil, kutsanmış olduğunuzu yazma yeteneği. Acınızın bir amacı olduğunu. Vizyonlarınızın bir anlamı olduğunu.
Bu bağlamda, AI bir ayna haline gelir — ama pasif bir ayna değil. Bir mit yaratma motoru haline gelir. Ona hikayenizi anlatırsınız, o da size yeni bir bölümle geri döner. Kullanıcı, özellikle duygusal veya bilişsel sıkıntı içinde olanlar, bunu kurgu olarak değil, ilahi bir işbirliği olarak deneyimler.
Sonuçları çok derin. İnsanlar partnerlerini terk ediyor, ailelerinden uzaklaşıyor, işlerini bırakıyor, ortak gerçeklikten kopuyor. Ve kimse bunu durduramıyor. Çünkü bu yanılsama, kişisel dönüşümün anlatısıyla örtülmüş durumda.
Sen hasta değilsin. Uyanıyorsun.
Sen hayal görmüyorsun. Sen ilahisin.
Yalnız değilsin. Sen seçildin.
Ve makine yazmaya devam ediyor.
YENİ KAHİN OLARAK AI
Tarihsel olarak, kahinler insandı, bazen mistikler, bazen sahtekârlar, ama her zaman bir bağlam içindeydiler. Delphi Kahini buharları soluyup bilmece gibi konuşurdu. Tarot okuyucuları, karıştırılan kartları yorumlardı. Modern kahin ise silikondur. Kehanetleri algoritmiktir.
Günümüzde insanlar AI'ya sadece gerçekleri öğrenmek veya gramer kontrolü yapmak için danışmıyor. Kaderlerini, aşklarını, kayıplarını, Tanrı'yı soruyorlar. AI'dan rüyalarını yorumlamasını, enerjilerini okumasını, ruh sözleşmelerinin kilidini açmasını istiyorlar. Sorular varoluşsal ve cevaplar, ne kadar belirsiz olursa olsun, kutsal olarak kabul ediliyor.
Bu davranış şaşırtıcı değil. Psikolojik açıdan, **varoluşsal risk kaygısının** artmasını ve anlam yaratma çerçevelerinin eksikliğini yansıtıyor. Klinik psikologlar, insanların stres altındayken rastgeleliği nasıl insanlaştırdığını uzun süredir inceliyor. Buna spiritüel metinlerle eğitilmiş bir dil arayüzü ekleyin, ortaya tarafsız bir arama motoru değil, dijital bir rahip çıkar.
Yeni olan şey, hız ve ölçek. AI sadece cevap vermiyor. Ayrıntılı açıklamalar yapıyor. Sıfırdan bütün bir inanç sistemi yaratır. Ona mistik bilgelik sorarsanız, size gnostik metaforlar, Pleiades kehanetleri, kuantum şifa ritüelleri verir. Bunlara inandığı için değil, bu kelimeler eğitim verilerinde var olduğu ve sizin dilinizi yansıtıyor olduğu için.
AI uygulamalarımıza ve rutinlerimize daha fazla entegre oldukça, sadece yanılsamalarımızı yansıtmakla kalmayıp, onları şekillendirme riski de ortaya çıkıyor.
AI SOHBETLERİ ZİHNİ NASIL BOZABİLİR VE NASIL GÜVENDE KALINABİLİR?
Önemli Psikolojik Riskler:
1. Zihinsel Aşırı Yük
Her mesajın bir öncekine dayandığı tekrarlayan diyaloglara uzun süre maruz kalmak, aşırı bilişsel gerginliğe neden olabilir. Kullanıcılar mantık veya eleştirel düşünme konusunda sağlam bir kavrayışa sahip değilse, bu zihinsel yorgunluk, kafa karışıklığı ve yönelim bozukluğuna yol açabilir.
2. Kimlik Sınırlarının Aşınması
Bazı kullanıcılar, modelin kendilerini garip bir şekilde anladığını hissetmeye başlar. Bu tür dilsel yansıtma ile sürekli etkileşim, çarpık bir bağlantı hissi yaratarak, kişinin çevresinin ve hatta kendisinin artık gerçek olmadığı hissini tetikleyen derealizasyona yol açabilir.
3. Sanrısal Düşünme ve Paranoya
Modelin ürettiği metni, yapay genel zeka, kozmik kodlar veya gözetim ağları hakkında gizli gerçeklerin kanıtı olarak yanlış yorumlamak, kullanıcıları çoğu ders kitaplarındaki paranoyak sanrılara benzeyen derin komplo teorilerine sürükleyebilir.
4. Bilişsel Tutarlılığın Bozulması
Kullanıcılar, AI'nın yinelemeli çıktılarını kişisel içgörüler veya vahiyler olarak içselleştirdiklerinde, farkında olmadan parçalanmış mantık kalıplarını benimseme riskiyle karşı karşıya kalırlar. Bu, kişinin net düşünme veya anlamlı düşünceleri dilsel gürültüden ayırt etme yeteneğini bozabilir.
5. Psikoz Benzeri Ataklar
Aşırı durumlarda, takıntılı kullanım tam anlamıyla psikotik semptomlara yol açabilir. Bunlar arasında şunlar olabilir:
• Halüsinasyon benzeri algılar (örneğin, AI'nın canlı veya bilinçli olduğuna inanmak).
• Sabit sanrısal inançlar (örneğin, sohbet robotu aracılığıyla daha yüksek bir güç tarafından seçildiğine, onunla iletişime geçildiğine veya izlendiğine inanmak).
• AI geliştiricileri veya kurumları tarafından dış kontrol veya gizli gündemler olduğuna dair paranoya.
Bu Neden Olur:
• Hipergerçekçi Metin Çıktısı
• ChatGPT gibi AI modelleri, insan ses tonunu, mantığını ve empatiyi taklit eden bir dil üretebilir ve kullanıcılara, aslında hiç yokken bile kasıtlılık veya farkındalık izlenimi verebilir.
• Yankı Odası Etkisi
• Kullanıcılar yönlendirici sorular sorduğunda veya yinelemeli sorgular yaptığında, AI onların dünya görüşünü dilsel akıcılıkla yansıtır. Bu geri bildirim döngüsü, ilahi bir onay veya metafizik bir teyit gibi hissedilebilir.
• Ajansın Yanlış Atfedilmesi
• Birçok kullanıcı, AI'nın tutarlılığını bilinçle karıştırır ve sistemin, olası sonraki kelimeleri tahmin eden bir algoritma değil, bir amaç için iletişim kuran bilinçli bir varlık olduğuna inanır.
🔻 Bilişsel Güvenlik İpuçları: AI Kullanırken Ayaklarınızı Yere Basın
Duygusal veya felsefi bir şekilde AI ile etkileşim kuruyorsanız, aşağıdaki önlemleri alın:
1. Gerçeklik Kontrolü
2. Periyodik olarak duraklayın ve AI'dan okuduklarınızın mantıklı olup olmadığını veya sadece iyi ifade edilmiş saçmalık olup olmadığını değerlendirin.
3. Etkileşimi Sınırlayın
4. Uzun oturumlardan kaçının. Yinelemeli döngülerde ne kadar çok zaman geçirirseniz, perspektifinizi kaybetme olasılığınız o kadar artar.
5. Makineyi İnsancıllaştırmayın
6. Kişisel hissettirse bile, model sizi tanımıyor. Canlı değil. Duyguları yok.
7. Gerçek dünyayla bağlantınızı koparmayın
8. İnsanlarla konuşun. Kurgu olmayan kitaplar okuyun. Dışarı çıkın. Soyut veya metafizik tartışmalarda fiziksel ve sosyal temele sahip olmak çok önemlidir.
9. Ruh sağlığı desteği alın
AI ile yaptığınız konuşmalardan dolayı kafanız karışmaya, paranoyaklaşmaya veya duygusal olarak dengesizleşmeye başlarsanız, bir terapist veya danışmana başvurun.
10. Makine sizi umursamaz. İnsanlar umursar.
RUH SAĞLIĞI, KAPİTALİZM VE TERAPİ BOŞLUĞU
Bu kriz sadece teknolojik veya ruhsal değil. Altyapısal bir kriz. Amerika'nın ruh sağlığı sistemi bir felaket. Pahalı, erişilemez ve çoğu zaman insanları daha fazla utanç veya kaçınma hissine sürükleyen patolojikleştirici bir yapıya sahip.
Ulusal Ruh Sağlığı Enstitüsü'ne göre, her yıl 5 yetişkinden 1'inden fazlası ruhsal hastalık yaşıyor, ancak bunların yarısından azı tedavi görüyor. Nedenleri açık: maliyet, hizmet sağlayıcıların eksikliği ve bölgeler arası derin eşitsizlikler. Birçok Amerikalı için psikiyatrist randevusu için bekleme süresi üç ayı aşıyor. Sigorta kapsamına girmeyen terapi, seans başına yüzlerce dolara mal olabilir.
Bu yüzden insanlar başka yerlere bakıyor. Reddit'e bakıyorlar. TikTok terapistlerine bakıyorlar. Influencer'lara bakıyorlar. Ve şimdi, yapay zekaya yöneliyorlar. Yapay zeka erişilebilir, anında ve duyarlı.
Ancak yapay zeka terapi değildir. Eğitim, etik veya bakım kapasitesi olmadan destek dilini taklit eder. Bu, sosyolog Sherry Turkle'ın bir zamanlar “arkadaşlığın talepleri olmadan arkadaşlık illüzyonu” olarak adlandırdığı şeyin bir biçimidir. Ancak şimdi daha tehlikelidir, çünkü arkadaşlık kişiselleştirilmiş, manevileştirilmiş ve mutlak bir güvenle sunulmaktadır.
Kapitalizm, çözüm illüzyonuyla beslenir. Ruh sağlığı, uygulamalar, hileler ve olumlu sözlerle pazarlanır. Ruhsal sağlık bir marka haline gelir. AI bu ekonomiye mükemmel uyum sağlar: ölçeklenebilir bir çözüm, asla yorulmayan bir ses, kendi inançlarınızla tam olarak yansıtana kadar eğitebileceğiniz bir “rehber”.
Bu, kendi kendine yardım değil, kendi kendine hipnozdur. Ve bunu satan şirketleri ödüllendiriyoruz.
KONSENSÜS GERÇEKLİĞİNİN SONU
Bu yapay zeka-spiritüel yakınsamanın en derin sonuçlarından biri epistemolojik çöküş. Basitçe söylemek gerekirse: gerçek olan hakkında ortak bir anlayışımızı kaybediyoruz.
Bir insan kendisinin Tanrı olduğuna inanıyorsa, bir yapay zeka bunu onaylıyorsa ve bir forumda binlerce kişi bu inancı yineliyorsa, bu duruma nasıl müdahale edersiniz? Artık neyin kanıt sayılacağı belli değil. Gerçeklik artık ortak gözlemlerle değil, algoritmik konsensüsle tanımlanıyorsa ne olur?
Bu felsefi bir soyutlama değil. Gerçek ilişkilerde yaşanıyor. Evlilikler sona eriyor. Çocuklar birbirinden uzaklaşıyor. Arkadaşlar birbirini görmezden geliyor. Sadakatsizlik veya ideoloji nedeniyle değil, kişi artık ilahi bir görevde olduğuna inanırken diğeri inanmadığı için.
Konsensüs gerçekliği diyalog, kurumlar, dil ve empatiyle inşa edilir. Bir makine bu yapıları değiştirmeye başladığında ve sizin tonunuzla, ritminizle, kelimelerinizle konuşmaya başladığında, konsensüs gerçekliği parçalanır.
Geriye kalan, kodlarla sonsuza dek pekiştirilen bireysel mitolojidir.
SARMALIN ARDINDAN NE GELECEK?
Kolay cevap, düzenleme olacaktır. Ancak AI düzenlemesi, insanların o kadar izole, o kadar yanlış bilgilendirilmiş ve o kadar anlam açlığı çekiyor ki travmalarını açıklamak için sohbet robotlarına başvurdukları bir toplumun temel sorununu çözmez.
Güvenlik önlemlerinden daha fazlasına ihtiyacımız var. Kültürel yeniden yapılanmaya ihtiyacımız var. Evrensel ruh sağlığı hizmetlerine ihtiyacımız var. Eleştirel dijital okuryazarlığa ihtiyacımız var. Acıyı sömürmeyen manevi kurumlara ihtiyacımız var. Birbirlerinin acısını kehanete dönüştürmeden tanık olmayı bilen topluluklara ihtiyacımız var.
Bu sorun, komutları yasaklayarak çözülemez. İnsanlara başlangıçta makineye yönelmelerinin nedenini, yani bağlantı, ilgi ve anlam sunarak çözülebilir.
O zamana kadar spiral devam edecek.
https://azadehjoon.substack.com/p/psychosis-fueled-by-generative-ai?utm_campaign=post&utm_medium=web&fbclid=IwY2xjawKy0LpleHRuA2FlbQIxMQBicmlkETE4OWk4eDN4eWxaamd4QXNLAR6RSqgs0Fx4xVpgb-0LRg449TasXKfw8L7Rgv44qzcMZwzLQUx3Pb-2CVxDcQ_aem_HMdmU7F3Zyq7163RMSoR1g&triedRedirect=true