
Apple Araştırması: Yapay Zeka Modelleri Karmaşık Problemlerde Çöküyor
Apple Araştırması: Gelişmiş Yapay Zeka Modelleri Karmaşık Problemler Karşısında Çöküyor
Apple tarafından yayınlanan bir araştırma, büyük akıl yürütme modelleri ( LRM'ler* ) gibi gelişmiş yapay zeka sistemlerinin, yüksek karmaşıklıktaki problemler karşısında "tam bir doğruluk çöküşü" yaşadığını ortaya koydu. Araştırma, bu modellerin düşük karmaşıklıktaki görevlerde standart yapay zeka modellerinden daha iyi performans gösterdiğini, ancak her iki modelin de yüksek karmaşıklıktaki görevlerde başarısız olduğunu belirledi.
Model Performansı ve Çöküş Noktası
Araştırmada, LRM'lerin karmaşık problemleri çözmek için detaylı düşünme süreçleri ürettiği, ancak performans çöküşüne yaklaştıkça "akıl yürütme çabalarını azalttığı" tespit edildi. Bu durum, modellerin temel sınırlamalarına işaret ediyor. Özellikle, modellerin doğru çözümü bulmak yerine yanlış yolları denediği ve karmaşıklık arttıkça tamamen başarısız olduğu gözlemlendi.
Yapay Genel Zekâ ( AGI* ) Yarışına Etkileri
Çalışma, yapay genel zekâ (AGI) hedefinin gerçekçiliği konusunda şüpheler uyandırdı. ABD'li akademisyen Gary Marcus, bulguları "oldukça yıkıcı" olarak nitelendirerek, mevcut yapay zeka modellerinin AGI'ye ulaşma yolunda temel engellerle karşılaştığını ifade etti. Marcus, büyük dil modellerinin ( LLM'ler* ) toplumu dönüştürecek bir AGI'ye doğrudan yol açmayacağını vurguladı.
Endüstrinin Mevcut Yaklaşımı ve Sınırlamalar
Araştırma, OpenAI'nin o3, Google'ın Gemini Thinking ve Anthropic'in Claude 3.7 Sonnet-Thinking gibi popüler modellerini test etti. Sonuçlar, mevcut yapay zeka yaklaşımlarının temel sınırlamalarla karşılaştığını ve genelleştirilebilir akıl yürütme yeteneklerinin sorgulanması gerektiğini gösterdi. Surrey Üniversitesi'nden Andrew Rogoyski, bu bulguların endüstrinin mevcut yaklaşımında bir "çıkmaz sokak" olabileceğini belirtti.