Geçtiğimiz haftalarda akademik sayfalarda gezinirken Apple’ın, evet, yanlış duymadınız, o Apple’ın yazdığı bir makale rastladım. Başlığı “The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.” Yani Türkçesiyle “Düşünme İllüzyonu: Akıl Yürütme Modellerinin Güç ve Sınırlılıklarını Problem Karmaşıklığı Açısından Anlamak.”
Buradaki akla gelen temel soru Apple’ın bu yazıyı yazmaya neden ihtiyaç duyduğu.
Bir teknoloji devinin, tüm verilierimizle hepimizin algısını yönetebilecek yeteneğe sahip özellikle de “ürün satışıyla” tanıdığımız Apple’ın böyle bir akademik çalışma yayımlaması dikkatimi çekti. Çünkü Apple genelde ürününü anlatır, ama bu sefer düşünme kavramının sınırlarını tartışıyordu. “Bir yapay zekâ modeli gerçekten düşünüyor mu, yoksa sadece düşünüyor gibi mi yapıyor?” sorusuna bilimsel bir yanıt arıyorlardı.
Apple’ın son yıllarda aldığı patentleri ve ek olarak almak için başvurduğu patent projelerini de düşününce (İnternetten veya Apple’ın sitesinden bunlara ulaşabilirsiniz) böyle bir yazı tuhafıma gitti.
Düşünme mi, Düşünüyormuş Gibi Yapmak mı?
Apple araştırmacıları, bu sorunun cevabını bulmak için farklı karmaşıklık düzeylerinde problemler oluşturmuş. (Başımıza ne geliyorsa zaten meraktan geliyor) Örneğin, bulmaca tarzı görevlerde Tower of Hanoi gibi modellerin performansını gözlemlemişler.
Sonuç şaşırtıcı:
• Basit görevlerde, klasik dil modelleri (LLM) gayet iyi iş çıkarıyor.
• Orta düzey karmaşıklıkta, “düşünme izni verilmiş” modeller (Large Reasoning Models, LRM) biraz daha iyi sonuç veriyor.
• Ama karmaşıklık yükseldiğinde her iki model de çöküyor. Evet, “çöküyor”. Yanıt üretemiyor, hataya düşüyor ya da “düşünmeyi bırakıyor”.
Apple bunu “tam doğruluk çöküşü” olarak tanımlamış. Yani modeller belirli bir noktadan sonra düşünemiyor, sadece düşünüyormuş gibi davranıyor.
Şimdi burada LLM yani klasik dil modellerinin “zaten algoritmik olarak öğrenmiş bir düşünme yapıları yok mu?” Diyebilirsiniz ancak yok. Zaten kırılım da düşünmesine izin verilen dil modellerinden sonra ortaya çıkıyor. Çünkü “e hani bunlar düşünüyordu?” Oluyor.
Peki Apple Neden Böyle Bir Makale Yazdı?
Apple’ın bu makaleyi yazma motivasyonu aslında sektöre sessiz bir mesaj niteliğinde ve bunu yapsa yapsa büyük abi olarak Apple yapmalıydı zaten.
Yapay zekâ dünyasında şu an “düşünen modeller” rüzgârı esiyor. Her şirket “bizim modelimiz artık sadece cevap vermiyor, düşünüyor” diyor. Apple ise bu söylemin tam ortasına bir soru bırakıyor:
“Gerçekten mi düşünüyorsunuz, yoksa sadece düşünme illüzyonu mu yaratıyorsunuz?”
Belki de bu yüzden Apple yapay zeka konusunda herkes uzakta ve geride duruyor bilinçli bir tercihle. İşin tuhafı müşterilere sunulan yapay zeka modeli “Apple Intelligence” chatgpt tabanlı iken Apple’ın içinde çalışanların kullandığı yapay zeka sistemi sadece kendi üretimleri. Burada da akla şu geliyor “neden kendi yapay zekasını sadece kendine saklıyor Apple?”.
Bu makale, sadece akademik bir analiz değil; aynı zamanda bir fren. “Yavaşlayalım” diyor Apple. “Çünkü bu kadar karmaşık sistemlerde düşünme, sadece zincirleme cümle kurmak değildir.”
Bir anlamda, gerçek düşünme ile düşünüyormuş gibi yapma arasındaki farkı göstermek istiyorlar.
Bu aynı zamanda Apple’ın kendi gelecek stratejisinin de ipuçlarını veriyor olabilir. Çünkü şirket, yapay zekâyı cihazlara entegre etmeden önce “bu modeller ne kadar güvenilir?” sorusunu yanıtlamaya çalışıyor. Yani “ürünleşmeden önce anlamaya çalışalım” yaklaşımı. Belki de bu yüzden, cihazlarında sadece chatgpt tabanlı AI kullanıyorlar. Çünkü en çok kullanım verisi ve en müdahale edilebilir yapay zeka modeli şu an chatgpt.
Oyuncak Aşaması: İnovasyonun En Tatlı ve Tehlikeli Hali
Aslında bu durum bana çocukluğumuzdaki oyuncakları hatırlattı. Bir süre büyülenirdik. Yeni bir şey keşfetmenin heyecanı yeterdi. Ama sonra sıkılırdık. Çünkü o oyuncak, her zaman aynı şeyi yapardı. Sonrada ailemiz birden fazla kurguyla çeşitli şeyler yapabileceğimiz legolar alırdı.
İnovasyonda da böyle.
Bir proje başlangıçta büyüleyici görünür ama karmaşıklık artınca “oyuncak” seviyesinde kalır.
Apple’ın araştırması da tam olarak bu aşamayı işaret ediyor. “Toy-level” diye adlandırabileceğimiz bu aşamada, model hâlâ öğreniyor, ama büyüyemiyor. Karmaşık problemleri çözmek yerine, kendini tekrar etmeye başlıyor.
Düşünmenin Anatomisi
Apple’ın makalesi, aslında insan zihniyle yapay zekâ arasındaki farkı da gösteriyor. İnsan düşündüğünde, hatalarından öğrenir, strateji değiştirir. Yapay zekâ ise çoğu zaman aynı kalıbı tekrarlar, çünkü makine öğrenmesinin temeli de bu sadece ona öğretilen yöntem ve öğretileni biliyor. 1+1=11 öğretirsen onu doğru bilir 1+1=2 demez.
İşte bu yüzden “düşünme illüzyonu” ifadesi oldukça yerinde. Çünkü o kadar çok veriyle eğitilmiş olsa da, o modelin yaptığı şey hâlâ “ezberden konuşmak”.
Stanford Üniversitesi’nden yapılan bir araştırma (Wei et al., 2022) da bu konuyu destekliyor. “Chain of Thought Prompting” adlı çalışma, dil modellerinin aslında düşünmeyi taklit ettiğini, ama yeni strateji üretemediğini göstermişti. Bu yüzden chatgpt sizin her söylediğinize hak veriyor 🙂
Cambridge Üniversitesi’nden yayınlanan benzer bir makale (Zhong et al., 2023) ise “kompozisyonel akıl yürütme” eksikliğini vurguluyordu. Model parçaları birleştiriyor ama bütünü kavrayamıyordu.
Yani Apple tek değil. Akademi de bu konuyu uzun süredir tartışıyor. Ama Apple’ın farkı şu:
Bu tartışmayı artık ürünlerin içine giren teknoloji düzeyine taşımış durumda.
Gerçek Düşünmenin Gerektirdiği Şey
Gerçek düşünme, karmaşıklaştıkça daha fazla çaba ister.
Bir insan karmaşık bir problemi çözerken geri döner, analiz eder, yeni bir yöntem dener.
Bir yapay zekâ modeli ise genelde token sınırına takılır.
İşte Apple bunu söylüyor:
“Düşünme izleri bırakmak, düşünmek değildir.”
Bu cümle, inovasyon dünyasında da geçerli.
Bir şirket “biz analiz ettik, düşündük” diyebilir ama bu, gerçekte derin bir problem çözümü yaptığını göstermez.
Gerçek düşünme, karmaşıklaşan dünyada hâlâ insana ait bir eylem. Bu bir insanın kötü bir olay karşısında “bunun sonuçları konusunda farkındayım” demesi gibi ancak aksiyon almıyorsan farkındalık hiç bir etki etmiyor.
Sonuç: Oyuncak Kalmak mı, Düşünmek mi?
Apple’ın bu makalesi, sadece yapay zekâyı değil, inovasyon kültürünü de sorguluyor.
Bir şey üretmek kolay, ama anlamını koruyarak büyütmek zor.
Düşünme illüzyonu, yalnızca makinelerde değil, insanlarda da sık görülüyor.
Kimi zaman biz de düşünüyor gibi yapıyoruz, ama aslında sadece bildiklerimizi tekrar ediyoruz.
Bu makale, bana göre Apple’ın “oyuncak dönemini” geride bırakıp “anlam dönemine” geçiş denemesi.
Belki de asıl düşünme, makinelerden önce bizimle başlamalı.
Kaynakça
Apple Machine Learning Research
Shojaee, P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., Farajtabar, M. (2025). The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity. Apple Machine Learning Research.
Stanford University
Wei, J. et al. (2022). Chain of Thought Prompting Elicits Reasoning in Large Language Models. arXiv.
Cambridge University
Zhong, W. et al. (2023). Disentangling Reasoning Capabilities from Language Models with Compositional Reasoning Transformers.
ETH Zürich
Xu, F. et al. (2024). Toward Large Reasoning Models: A Survey of Reinforced Reasoning. ScienceDirect.
Kitaplar
• Isaacson, W. (2011). Steve Jobs. Simon & Schuster.
• Garcez, A. d’., Gori, M., Lamb, L. C., et al. (2019). Neural-Symbolic Computing. Springer.