Ahrefs’in 2025’te yaklaşık 900 bin web sayfasını analiz ederek yaptığı araştırmaya göre, çevrim içi içeriklerin %74,2’si tamamen ya da kısmen yapay zeka tarafından üretiliyor; peki yapay zekanın yine yapay zeka verilerinden beslendiği bu yeni ekosistemde bilginin doğruluğu neye göre ölçülecek?
Yapay zeka hayatımıza hızlı bir giriş yaptı. Öyle ki kısa sürede eğitimden medyaya, iş dünyasından günlük hayatımıza kadar pek çok alanda kendine yer buldu. Bir öğrenci ödev hazırlarken, bir gazeteci haber yazarken, bir şirket çalışanı rapor hazırlarken artık yapay zeka araçlarını kullanabiliyor.
Bir süre sonra karşılaştığımız tüm metinler acaba mı dedirtmeye başladı. Metinlerle de sınırlı kalmadı; görseller, videolar kısacası tüm dijital materyaller artık şüphe uyandırıyor. Peki tüm bunları mümkün kılan yapay zeka sistemleri nasıl eğitiliyor? Bunun için önce, bugüne dek yapay zekanın geçirdiği gelişim sürecine kısa bir göz atmakta fayda var.
1950’den 2026’ya Yapay Zeka Nasıl Gelişti?
Yapay zeka araştırmaları aslında yeni değil; geçmişi 1950’lere kadar uzanıyor. Ancak uzun süre bu alan daha çok akademisyenlerin ve büyük teknoloji şirketlerinin çalıştığı bir alan olarak kaldı.
2010’lu yıllarda yapay zeka hızla gelişti; görüntü tanıma, veri analizi ve otomasyon gibi alanlarda önemli ilerlemeler yaşandı. Asıl dönüm noktası ise 2022’de ChatGPT’nin kamuya açılmasıyla geldi.
Ardından Google Gemini, Claude ve Microsoft Copilot gibi araçların ortaya çıkmasıyla yapay zeka kısa sürede eğitimden medyaya kadar pek çok alanda kullanılan yaygın bir araca dönüştü.
Peki Bu Sistemler Nasıl Eğitiliyor?
Bugün “büyük dil modeli” denilen yapay zekalar genellikle üç aşamada eğitiliyor. Önce devasa metinlerle dilin yapısı öğreniliyor: kelimeler nasıl bir araya gelir, cümleler nasıl kurulur vb. Sonra insanlar modelin cevaplarını örneklerle ince ayarlıyor, böylece daha doğru ve güvenli yanıtlar üretmesi sağlanıyor. Son aşamada ise insan geri bildirimi devreye giriyor; model, hangi cevapların daha iyi olduğunu öğrenerek kendini geliştiriyor.
Mesela ChatGPT 2024’te, 2023’e kadar olan bilgilerle eğitildiği için 2024’te olan olayları bilmiyordu. Kısa süre sonra bu sorun çözüldü ve güncel verilerle metin oluşturmaya devam etti.
Buraya kadar yapay zekanın kendini nasıl eğittiğini öğrendik: İnternetten metinleri derliyor ve kullanıcı geri bildirimleriyle yönlendiriliyor. Ancak işler artık biraz daha karmaşık. Ahrefs’in 2025’te yaklaşık 900 bin web sayfasını analiz ettiği araştırmaya göre, çevrim içi içeriklerin yüzde 74,2’si tamamen ya da kısmen yapay zeka tarafından üretiliyor. Yani 2024’ten sonra ortaya çıkan metinlerin büyük çoğunluğu yapay zeka tarafından üretilmiş durumda ve bu da yapay zeka tarafından üretilmiş bu metinlerin yeni içeriklerin kaynağı olduğunu gösteriyor.
Yapay Zeka Kendi Kendini Besleyen Bir Modele Dönüştüğünde Bizi Neler Bekliyor?
Bugün karşı karşıya olduğumuz sorun yalnızca “yanlış bilgi” değil; yanlış bilginin tekrar tekrar üretilerek doğruymuş gibi yerleşme ihtimali. Yapay zeka tam da bu noktada bir hızlandırıcı işlevi görüyor: Ne üretirse üretsin, benzerleri yeniden çoğalıyor. Böylece bilgi, doğrulukla değil tekrar sıklığıyla ölçülmeye başlıyor.
Yapay zekanın kendi ürettiği verilerle tekrar tekrar eğitilmesi sonucunda ortaya çıkan olguya teknik literatürde “model çöküşü” deniyor. Bu süreçte nadir ama kritik bilgiler kayboluyor; geriye ise sürekli tekrar eden, pürüzsüz ama sığ metinler kalıyor.
Sorun burada da bitmiyor. Yapay zeka modelleri devasa miktarda veri tüketiyor, internetteki nitelikli insan yapımı içerikler ise hızla tükeniyor. Bu noktada geliştiriciler, modelleri kendi ürettikleri içeriklerle beslemek zorunda kalıyor. Literatürde buna “özyinelemeli eğitim” ya da self-consuming loop deniyor.

Risk Senaryosu
Farz edelim bir haber editörü, Türkiye’de evlilik oranlarıyla ilgili bir yazı hazırlıyor. Hız kazanmak için yapay zekadan yararlanıyor ve metnin bir yerine şöyle bir cümle ekleniyor:
“TÜİK verilerine göre 2025 yılında Türkiye’de evlilik oranları yüzde 20 düştü.”
Editör ifadeyi ayrıntılı biçimde kontrol etmiyor ve haber bu haliyle yayımlanıyor. Ardından başka bir araştırmacı, konuyla ilgili çalışırken birincil kaynağa gitmek yerine bu haberi güvenilir görüp ikincil kaynak olarak kullanıyor. Verinin doğruluğunu sorgulamıyor.
Bir süre sonra aynı bilgi farklı yazılarda, raporlarda ve analizlerde tekrar edilmeye başlıyor. Sonuçta TÜİK böyle bir araştırma yapmamış olsa da, internet üzerinde var olmayan bu veri “gerçek” haline geliyor.
İşte bu, model çöküşünün ve özyinelemeli eğitim döngüsünün günlük hayatta yarattığı görünmez ama tehlikeli etkilerin bir örneği.
Sadece insanlar da değil modeller de verinin doğruluğunu kontrol etmek de başarısız. Yapay zekanın kendi ürettiği veriyi büyüterek devam ettirmesi olgusu insanlarınkinden daha tehlikeli ve hızlı. Yapay zeka bu döngünün içerisinde gerçeklikle bağını kaybederek kendi paralel gerçekliğinde yaşamaya başlıyor. Buna “yapay zeka halüsinasyonu” deniyor.
Araştırmalar, bu sürecin yapay zekanın öğrenme biçimini üç temel noktada zayıflattığını gösteriyor:
- İstatistiksel hata: Model nadir olanı önemsiz sayıyor, istisnaları siliyor ve sadece en yaygın olanı seçiyor. Oysa bilim ve toplum çoğu zaman istisnalardan beslenir.
- Kapasite sınırı: Yapay zeka her şeyi eksiksiz hatırlayamaz. Veriyi sıkıştırırken detayları çarpıtır ve bu çarpıtma sentetik verilerle pekişir.
- Hataların birikmesi: İlk modelde küçük bir yanlış tolere edilir, ikinci modelde normalleşir, onuncuda ise standart haline gelir. Yanlış artık istisna değil, normdur.

Model çöküşünü önlemenin tek yolu, sisteme düzenli ve bilinçli biçimde gerçek insan deneyimini, doğrulanmış veriyi ve eleştirel çeşitliliği eklemektir. Dijital çağda en kritik mesele yalnızca bilgiye erişmek değil; bilginin kaynağını sorgulayabilen bir bilinç geliştirmek olacaktır.
Ahsen Nur Katırcıoğlu, Türkistan coğrafyası odaklı uluslararası ilişkiler alanında akademik ve saha temelli çalışmalar yürütmektedir. Prodüksiyon, tanıtım, editörlük ve içerik üretimi alanlarında çalışmalar yürütmektedir. Çeşitli sivil toplum kuruluşlarında yayıncılık, akademik eğitim, medya çalışmaları ve dijital arşivleme projelerinde rol almıştır. İbn Haldun Üniversitesi’nde çift anadal öğrencisi olarak Siyaset Bilimi ve Uluslararası İlişkiler ile Yeni Medya ve İletişim bölümlerinde öğrenimini sürdürmektedir. İngilizce ve Arapça bilmektedir.

