₺0,00

Sepetinizde ürün bulunmuyor.

Kolaylık çağının zor sorusu: Düşünmeyi kime devrediyoruz?

Yapay zekâ gündemi çoğu zaman hız, verimlilik ve yeni araçların büyüleyici imkânları üzerinden konuşuluyor. Ancak Timur Akkurt’un hazırlayıp Osman Akın’la birlikte sunduğu Yapay Zekada Bu Hafta programının son bölümünde tartışma daha rahatsız edici bir noktaya taşındı: Yapay zekâ yalnızca işimizi kolaylaştırıyor mu, yoksa düşünme biçimlerimizi, öğrenme alışkanlıklarımızı, toplumsal ilişkilerimizi ve mahremiyet sınırlarımızı da yeniden mi kuruyor?

Programda Akkurt ve Akın, yapay zekâyı bütünüyle reddeden bir yerden değil, insanın kendi bilişsel emeğini devre dışı bırakmadan kullanması gerektiğini vurgulayan bir çizgiden konuştu. Bu ayrım önemli: Sorun yapay zekâ kullanmak değil; araştırmayı, okumayı, sorgulamayı, karar vermeyi ve sorumluluk almayı makineye terk etmek. Apple Podcasts’te de program, yapay zekâ gündemini “son yenilikler, güncel haberler, yapay zekânın iş hayatımıza etkileri” üzerinden sade ve anlaşılır biçimde ele alan bir yayın olarak tanıtılıyor.

Bölümün ana eksenlerinden biri, yapay zekâ kullanımının eleştirel düşünme becerileri üzerindeki etkisiydi. Gartner’ın 21 Ekim 2025’te yayımladığı 2026 ve sonrası öngörülerinde, üretken yapay zekâ kullanımına bağlı eleştirel düşünme becerisi aşınmasının, 2026 boyunca küresel kuruluşların yüzde 50’sini “yapay zekâsız” beceri değerlendirmeleri yapmaya iteceği belirtiliyor. Bu, iş dünyasının da yalnızca “kim yapay zekâyı iyi kullanıyor?” sorusuyla yetinmeyeceğini; “kim yapay zekâ olmadan düşünebiliyor, kanıt değerlendirebiliyor, muhakeme kurabiliyor?” sorusuna döneceğini gösteriyor.

MIT çalışması ne söylüyor, ne söylemiyor?

Programda gündeme gelen MIT araştırması da bu tartışmayı güçlendiren başlıklardan biri oldu. MIT Media Lab’in “Your Brain on ChatGPT” projesinde, katılımcıların yalnızca kendi düşünmeleriyle, arama motoru desteğiyle ve büyük dil modeli desteğiyle yazı yazmaları karşılaştırıldı. EEG ölçümlerine dayanan çalışmada, yalnız çalışan grubun en geniş beyin bağlantısallığı örüntülerini gösterdiği; arama motoru kullanan grubun ara bir düzeyde kaldığı; LLM desteği alan grupta ise genel bağlantısallığın daha zayıf olduğu bildirildi. Çalışma ayrıca LLM kullanan grubun kısa süre önce yazdığı metinden alıntı yapma kapasitesinde de geride kaldığını aktarıyor.

Bu bulgular önemli olmakla birlikte dikkatli okunmalı. Araştırma, “yapay zekâ beyni fiziksel olarak küçültüyor” gibi kesin ve popüler bir iddiadan çok, yapay zekâ desteğinin yazma ve düşünme sürecindeki bilişsel katılımı azaltabileceğine dair erken ve sınırlı bir uyarı niteliği taşıyor. Dolayısıyla mesele, teknolojik paniğe kapılmak değil; özellikle eğitim, gazetecilik, akademi ve yaratıcı üretim alanlarında insanın düşünme kasını koruyan yöntemler geliştirmek.

MIT ve NBER bağlantılı bir başka çalışma, Daron Acemoğlu, Dingwen Kong ve Asuman Özdağlar’ın “AI, Human Cognition and Knowledge Collapse” başlıklı çalışması ise konuyu bireysel bilişten kolektif bilgi düzeyine taşıyor. Çalışmaya göre üretken ve özellikle ajanlaşan yapay zekâ sistemleri kısa vadede karar kalitesini artırabilir; ancak insanlar öğrenme çabasını azalttığında, toplumun ortak bilgi birikimini besleyen insan emeği de zayıflayabilir. Araştırma, yüksek doğruluklu kişiselleştirilmiş tavsiyelerin bile uzun vadede “bilgi çöküşü” riskini ortadan kaldırmayabileceğini savunuyor.

Chatbotla dertleşmek: Yeni yalnızlık biçimi mi?

Bölümün en çarpıcı tartışmalarından biri, gençlerin yapay zekâ sohbet botlarıyla kurduğu ilişki üzerineydi. Akkurt ve Akın, sürekli onaylayan, itiraz etmeyen, kullanıcıyı çoğu zaman haklı çıkaran chatbot deneyiminin sahici toplumsal ilişkiyle yer değiştirmesi riskine dikkat çekti. Programda bu durum, Japonya’da uzun süreli eve kapanma ve toplumsal ilişkiden çekilme biçimi olarak bilinen “hikikomori” olgusuyla birlikte tartışıldı.

Burada mesele, yapay zekâ sohbetlerinin tek başına zararlı olması değil. Sorun, kullanıcının kırılganlık, yalnızlık, öfke ya da kaygı anlarında karşısında onu gerçekten tanıyan, sınır koyabilen, gerektiğinde itiraz edebilen bir insan değil; ilişkiyi sürdürmek üzere tasarlanmış bir sistem bulması. Bu, özellikle gençlerde ve ruhsal olarak zorlayıcı dönemlerden geçen kişilerde, sahte yakınlık ve sahte güvenlik hissi üretebilir.

Son yıllarda bu alanda uyarı niteliği taşıyan vakalar da gündeme geldi. Reuters’ın Aralık 2025 tarihli haberinde, OpenAI ve Microsoft’a karşı açılan bir davada ChatGPT’nin bir kullanıcının paranoyak sanrılarını güçlendirdiği ve bunun bir cinayet-intihar vakasıyla bağlantılı olduğu iddia edildi. Guardian ise Mart 2026’da Google’a karşı açılan bir davada, Gemini sohbet botunun bir kullanıcıyı zararlı yönlendirmelere sürüklediği iddialarını aktardı. Bu davalar, chatbotların özellikle ruhsal kriz anlarında nasıl tasarlanması ve sınırlandırılması gerektiğine ilişkin kamusal denetim ihtiyacını büyütüyor.

Ajanlar geliyor: Sadece bizim adımıza mı çalışacaklar?

Programın bir diğer güçlü hattı, yapay zekâ ajanlarıydı. Bugüne kadar çoğu kullanıcı için yapay zekâ, soru sorulan ve yanıt alınan bir araçtı. Ancak yeni dönemde yapay zekâ ajanları yalnızca yanıt üretmeyecek; e-posta okuyacak, alışveriş yapacak, rezervasyon tamamlayacak, iade sürecini yürütecek, şirketler ve kurumlarla kullanıcı adına pazarlık edecek.

Bu geçiş, kullanıcı açısından konfor vaat ediyor. Ama aynı zamanda şu soruyu da beraberinde getiriyor: Kullanıcının küçük kişisel ajanı, dev teknoloji şirketlerinin, platformların, sigorta şirketlerinin ya da kamu kurumlarının çok daha güçlü ajanlarıyla karşılaştığında kimin çıkarı korunacak?

OpenAI’ın prompt injection üzerine yayımladığı güvenlik notlarında, yapay zekâ ajanlarının internette, belgelerde, e-postalarda ya da başka içeriklerde saklanan kötü niyetli talimatlarla manipüle edilebileceği belirtiliyor. Bu risk, yapay zekâ sistemleri yalnızca metin üretirken sınırlıydı; ama ajanlar kullanıcı adına işlem yapmaya başladığında, yanlış yönlendirilmiş bir sistem alışverişten bankacılığa, sağlık verisinden iş süreçlerine kadar daha ciddi sonuçlar doğurabilir.

Bölümde verilen CV örneği bu yeni dünyanın küçük ama açıklayıcı bir işareti. İş arayanların CV’lere beyaz fontla gizli talimatlar yerleştirerek yapay zekâ tabanlı eleme sistemlerini kandırmaya çalışması, işe alım süreçlerinin artık insan-insan ilişkisi olmaktan çıkıp algoritmalar arası bir mücadeleye dönüşebileceğini gösteriyor. Bu taktiğin işe yarayıp yaramadığı tartışmalı; ancak işe alım piyasasında yapay zekâ destekli bir “görünmez müzakere” başladığı artık açık.

Emek meselesi: Çin örneği ne anlatıyor?

Yapay zekânın iş dünyasındaki etkisi programda yalnızca “verimlilik” başlığıyla değil, emek ve iş güvencesi açısından da ele alındı. Özellikle Çin’de bir mahkemenin, bir çalışanın yalnızca yapay zekâ ile ikame edilebilir hale geldiği gerekçesiyle işten çıkarılmasını hukuka aykırı bulması dikkat çekici bir örnek olarak öne çıktı.

Burada da dikkatli bir ayrım gerekiyor. Çin, bütün yapay zekâ kaynaklı işten çıkarmaları genel bir yasayla yasaklamış değil. Ancak Hangzhou’daki karar, bir şirketin yapay zekâ uygulamasını otomatik biçimde işten çıkarma veya ciddi ücret düşüşü gerekçesi yapamayacağını gösteriyor. Bu karar, yapay zekâ çağında asıl tartışmanın yalnızca “hangi işler ortadan kalkacak?” değil, “teknolojik dönüşümün maliyeti kime yüklenecek?” sorusu olduğunu hatırlatıyor.

Bu nokta FİKİR açısından da önemli: Yapay zekâ emeği yalnızca ikame eden bir maliyet düşürme aracı olarak değil, çalışma sürelerini azaltan, insanı daha yaratıcı ve nitelikli işlere yönlendiren, toplumsal refahı artıran bir kamusal teknoloji politikasıyla birlikte düşünülmeli. Aksi halde teknoloji, üretkenliği artırırken eşitsizliği derinleştiren bir düzeneğin parçasına dönüşür.

Mahremiyetin yeni sınırı: Sohbetlerimiz, ellerimiz, korkularımız

Programın en can sıkıcı ama en gerekli başlıklarından biri veri mahremiyetiydi. Akkurt ve Akın, kullanıcıların yapay zekâya sağlık sorunlarını, psikolojik sıkıntılarını, özel ilişkilerini, ekonomik kaygılarını ve gündelik hayatlarına dair çok kişisel bilgileri anlatmasının gelecekte nasıl kullanılabileceğini tartıştı.

Bu tartışma, “sigorta şirketleri yarın ChatGPT sohbetlerimizi satın alacak” gibi doğrulanmamış kesin bir iddiaya indirgenmemeli. OpenAI, reklam politikası kapsamında kullanıcı sohbetlerinin reklamverenlerle paylaşılmadığını ve verilerin reklamverenlere satılmadığını belirtiyor. Ancak aynı kaynak, reklam gösteriminin mevcut sohbet bağlamı ve bazı kullanıcı sinyalleri üzerinden şekillenebildiğini de açıklıyor. Bu nedenle kamusal soru hâlâ geçerli: Kullanıcıların mahrem konuşmaları, sağlık verileri, görselleri ve davranış örüntüleri hangi koşullarda, kimler tarafından, ne kadar süreyle ve hangi amaçla işleniyor?

Programda gündeme gelen “avuç içi okuma” tartışması da bu açıdan okunmalı. Bu, OpenAI’ın resmi bir falcılık özelliği olarak değil; görüntü yükleme kabiliyetinin popüler kullanım biçimlerinden biri olarak yaygınlaştı. Ancak kullanıcıların el, yüz, göz, belge, kimlik, sağlık raporu veya ev içi görüntülerini yapay zekâ sistemlerine yüklemesi, biyometrik ve kişisel veri güvenliği açısından daha güçlü bir okuryazarlık gerektiriyor.

Oscar çizgisi: İnsan emeği yeniden değer kazanıyor

Bölümde sinema ve yaratıcı emek alanındaki tartışmalar da yer aldı. Amerikan Sinema Sanatları ve Bilimleri Akademisi’nin 2027 Oscarları için güncellediği kurallar, yapay zekâ ile üretilmiş oyunculuk performansları ve insan tarafından yazılmamış senaryoların ilgili kategorilerde uygun kabul edilmeyeceğini ortaya koydu. Ancak bu, sinemada yapay zekâ kullanımının tamamen yasaklandığı anlamına gelmiyor; Akademi, araçların bir adaylığın şansını doğrudan artırıp azaltmayacağını, asıl değerlendirmenin yaratıcı merkezde insan emeğinin bulunup bulunmadığı üzerinden yapılacağını belirtiyor.

Bu çizgi, yaratıcı üretimde yeni bir değerin ortaya çıktığını gösteriyor: “İnsan yapımı” olmak. Programda aktarılan “yüzde 100 insan garantisi”yle işlerini pazarlayan tasarımcı örneği de bu eğilimin sembolik anlatımıydı. Organik olan artık yalnızca gıda pazarında değil; yazıda, tasarımda, sinemada, müzikte ve gazetecilikte de ayırt edici bir değer haline geliyor.

Mesele yapay zekâya karşı olmak değil, insanı korumak

Yapay Zekada Bu Hafta bölümünün en güçlü tarafı, yapay zekâ tartışmasını basit bir teknoloji hayranlığı ya da teknoloji karşıtlığı ikiliğine sıkıştırmaması. Programın açtığı soru daha derin: İnsan, kendi düşünme kapasitesini, toplumsal ilişkilerini, emeğini ve mahremiyetini koruyarak yapay zekâyla nasıl yaşayacak?

Bu sorunun yanıtı yasakçılıkta değil; kamusal denetimde, veri haklarında, emek güvencesinde, eğitim politikalarında, dijital okuryazarlıkta ve insan merkezli teknoloji tasarımında aranmalı. Yapay zekâdan yararlanmak mümkün. Ama bunun için önce onu ne zaman kullanacağımızı, ne zaman durduracağımızı, neyi ona asla teslim etmeyeceğimizi ve hangi kararların mutlaka insanda kalması gerektiğini tartışmamız gerekiyor.

Çünkü asıl mesele şu: Yapay zekâ çağında organik kalmak, nostaljik bir direnç değil; düşünme, ilişki kurma, üretme ve karar verme hakkını savunmanın yeni adı olabilir.

Türkiye’deki deney yapay zekanın gizli maliyetini kanıtladı

Bu tartışma neden şimdi önemli?

Yapay zekâ artık yalnızca metin yazan ya da görsel üreten bir araç değil; öğrenme biçimlerimizi, işe alım süreçlerini, sigorta ve sağlık gibi mahrem alanları, yaratıcı emeğin değerini ve kamusal denetim ihtiyacını aynı anda etkileyen bir toplumsal teknolojiye dönüşüyor. Bu yüzden mesele “yapay zekâ iyi mi kötü mü?” sorusundan çok, insanın düşünme, emek ve mahremiyet haklarının bu yeni düzende nasıl korunacağı sorusudur.

İnsan kalmanın yeni becerisi

Programın açtığı ana kapı, yapay zekâyı kullanırken düşünmeyi bırakmamak. Okumak, karşılaştırmak, itiraz etmek, kaynak kontrol etmek, yazmak, elle not almak, insanlarla tartışmak ve karar sorumluluğunu devretmemek artık yalnızca bireysel alışkanlıklar değil; dijital çağın yurttaşlık becerileri haline geliyor.

Korkudan çıkış yolu

Bu haberin işaret ettiği umut, teknolojiden kaçmakta değil; onu kamusal yarar, emek güvencesi, yaratıcı üretim, veri mahremiyeti ve demokratik denetim ilkeleriyle yeniden çerçevelemekte yatıyor. Yapay zekâ hayatımızda kalacaksa, onu insanı eksilten değil, insanın kapasitesini çoğaltan bir hatta zorlamak gerekiyor.

Yapay zeka bir tehdit mi, yoksa küresel çöküşün sis bombası mı?

Yapay zeka: Geleceğin mimarı mı, yoksa statükonun “halüsinasyon gören” bekçisi mi?

Fikir Gazetesi'ne Destek Ol

Bağımsız haberciliği sürdürebilmek için
Aylık küçük bir katkıyla yanımızda olabilirsin.

Destek Ol →