Yönetici Özeti
Yapay zeka (YZ) ve yüksek performanslı hesaplama (HPC) dünyası, tarihsel bir dönüm noktasında bulunmaktadır. Onlarca yıldır bilişim sistemlerinin temelini oluşturan Von Neumann mimarisi, modern veri yoğunluklu iş yükleri karşısında fiziksel ve enerjetik sınırlarına ulaşmıştır. “Von Neumann Darboğazı” olarak bilinen bu fenomen, işlemci hızları ile bellek erişim hızları arasındaki makasın açılmasıyla derinleşmiş ve “Bellek Duvarı” (Memory Wall) adı verilen aşılamaz bir engele dönüşmüştür. Bu durum, özellikle enerji bütçesinin son derece kısıtlı olduğu uzay havacılığı uygulamalarında, otonom sistemlerin potansiyelini ciddi şekilde sınırlamaktadır. Eş zamanlı olarak, son on yıla damgasını vuran Transformer derin öğrenme mimarisi, benzeri görülmemiş bir başarı yakalamasına rağmen, $O(N^2)$ hesaplama karmaşıklığı ve devasa bellek bant genişliği gereksinimleri nedeniyle kendi sınırlarına dayanmış durumdadır.
Mevcut hesaplama paradigmalarının fiziksel ve algoritmik kısıtlamalarını en ince ayrıntısına kadar incelemektedir. Rapor, veri hareketinin enerji maliyetinden (pJ/bit) Transformer modellerindeki “Lost-in-the-Middle” (Ortada Kaybolma) fenomenine, Mamba ve RWKV gibi yeni nesil lineer karmaşıklıklı mimarilerden, NASA’nın RISC-V tabanlı Yüksek Performanslı Uzay Uçuşu Bilgisayarı (HPSC) projesine kadar geniş bir yelpazeyi kapsamaktadır. Analizler, uzay keşfinin geleceğinin, brüt işlem gücüne dayalı mevcut yaklaşımlardan ziyade, veriyi yerinde işleyen nöromorfik yapılar, durum uzayı modelleri (SSM) ve nedensel “Dünya Modelleri” (World Models) gibi enerji verimli ve biyolojik olarak ilham alınmış mimarilere geçişe bağlı olduğunu ortaya koymaktadır.
Şu yazılar ilginizi çekebilir.
- Büyük Dil Modellerinin İnşası, Bilişsel Mimariler ve Sub-Sembolik Yapay Zeka
- Gelişmiş Hesaplamalı Mimariler ve Algoritmik Verimlilik: Temellerden Nöromorfik Ölçekleme Yasalarına
1. Von Neumann Darboğazı: Fiziksel Temeller, Enerji Maliyetleri ve Bellek Duvarı
Modern bilgisayar biliminin temel taşı olan Von Neumann mimarisi, 1945 yılında John von Neumann tarafından “First Draft of a Report on the EDVAC” başlıklı raporda resmileştirilmiştir. Bu mimari, işlem birimi (CPU) ile veri ve komutları saklayan bellek biriminin fiziksel ve mantıksal olarak ayrılması prensibine dayanır.1 Bu ayrım, genel amaçlı bilgisayarların (general-purpose computers) esnekliğini ve programlanabilirliğini sağlamış olsa da, günümüzün veri odaklı yapay zeka çağında sistem performansını kısıtlayan en büyük faktör haline gelmiştir.
1.1 Mimarinin Anatomisi ve Darboğazın Oluşumu
Von Neumann mimarisinde, merkezi işlem birimi bir komutu veya veriyi işlemek için mutlaka belleğe erişmek zorundadır. Komutlar ve veriler aynı veri yolu (bus) üzerinden işlemciye taşınır. Bu durum, “Fetch-Decode-Execute” (Getir-Çöz-Yürüt) döngüsünün, veri yolunun hızıyla sınırlı kalmasına neden olur. İşlemci hızları, Moore Yasası uyarınca transistör yoğunluğunun artmasıyla her 18-24 ayda bir ikiye katlanarak üstel bir artış göstermiştir. Ancak, bellek teknolojileri (DRAM) aynı hızda gelişmemiş, özellikle bellek erişim süresi (latency) konusunda işlemcilerin çok gerisinde kalmıştır.
Son kırk yılda, işlemci performansı ile bellek performansı arasındaki fark yılda yaklaşık %50 oranında açılmıştır. Bugün bu fark 1000 kattan fazladır. İşlemciler saniyede milyarlarca işlem yapabilme kapasitesine sahipken, bellekten veri gelmesini bekledikleri “idle” (boşta) süreler, toplam işlem süresinin büyük bir kısmını oluşturmaktadır.2 Bu fenomene “Bellek Duvarı” (Memory Wall) adı verilir. Modern derin öğrenme algoritmaları, özellikle büyük dil modelleri (LLM), bu duvarın etkilerini en şiddetli şekilde hisseden uygulamalardır.
1.2 Veri Hareketinin Fiziği: Hesaplama vs. Taşıma Enerjisi
Uzay uygulamalarında en kritik kaynak enerjidir. Bir uzay aracının güç bütçesi, güneş panellerinin verimliliği ve batarya kapasitesi ile sınırlıdır. Bu bağlamda, Von Neumann darboğazı sadece bir hız sorunu değil, aynı zamanda bir enerji krizidir. Dijital sistemlerde enerji tüketimi iki ana kalemde incelenir: transistörlerin anahtarlanmasıyla harcanan hesaplama enerjisi ve verinin teller (interconnects) üzerinden taşınmasıyla harcanan veri hareket enerjisi.
Fiziksel yasalar, veriyi taşımanın (kapasitif yükleri şarj edip deşarj etmenin), veriyi işlemekten çok daha maliyetli olduğunu göstermektedir. 7nm ve 5nm gibi gelişmiş üretim teknolojilerinde yapılan ölçümler, bu dengesizliği çarpıcı bir şekilde ortaya koymaktadır. Bir aritmetik mantık biriminde (ALU) 32-bitlik bir toplama işlemi yapmak veya kayan nokta (floating point) çarpma işlemi gerçekleştirmek 1 pikojoule (pJ) altında enerji gerektirirken, aynı veriyi ana bellekten (DRAM) getirmek yüzlerce, hatta binlerce kat daha fazla enerji tüketmektedir.3
Aşağıdaki tablo, farklı bellek erişim türlerinin ve hesaplama işlemlerinin enerji maliyetlerini karşılaştırmalı olarak sunmaktadır:
| İşlem Türü (45nm – 7nm arası verilerle normalize edilmiştir) | Yaklaşık Enerji Maliyeti (pJ) | Göreli Maliyet |
| 32-bit Tamsayı Toplama (ADD) | ~0.1 pJ | 1x |
| 32-bit Kayan Nokta Çarpma (F-MULT) | ~3.7 pJ | ~37x |
| Önbellek (SRAM) Erişimi (8KB – 32KB) | ~5 – 10 pJ | ~50x – 100x |
| Ana Bellek (DRAM/LPDDR) Erişimi | 640 – 1000+ pJ | 6400x – 10000x |
| Off-Chip Veri Transferi | 1000+ pJ | 10000x+ |
3
Bu veriler ışığında, modern bir yapay zeka işlemcisinin enerji tüketiminin %90’ından fazlasının hesaplama yapmak için değil, veriyi bellekten işlemciye taşımak için harcandığı görülmektedir. Bu duruma “Von Neumann Vergisi” diyebiliriz. Uzayda çalışan bir otonom navigasyon sistemi için bu, her bir watt enerjinin büyük kısmının telleri ısıtmak için harcandığı ve “zeka” üretimine çok az enerjinin kaldığı anlamına gelir.
1.3 Modern Yarı İletken Süreçlerinde (5nm, 3nm) Durum
Yarı iletken teknolojisi 7nm, 5nm ve 3nm düğümlerine (node) doğru ilerledikçe, transistörler daha küçük, daha hızlı ve daha enerji verimli hale gelmektedir. Ancak, çip üzerindeki bakır bağlantı yolları (interconnects) aynı oranda küçülmemektedir. Aksine, teller inceldikçe dirençleri artmakta ve RC gecikmeleri (Resistance-Capacitance delay) baskın hale gelmektedir. Bu durum, işlemci çekirdekleri içindeki hesaplama verimliliğini artırırken, veriyi çip üzerinde bir noktadan diğerine taşımanın enerji maliyetinin toplam bütçe içindeki payını daha da artırmaktadır.5
Özellikle GPU ve TPU gibi yapay zeka hızlandırıcılarında, bellek bant genişliği (memory bandwidth) performansı belirleyen ana faktördür. NVIDIA H100 veya AMD MI300 gibi modern işlemciler, Yüksek Bant Genişlikli Bellek (HBM) teknolojileri kullanarak bu sorunu hafifletmeye çalışsa da, temel mimari hala işlemci ve belleğin ayrık olduğu Von Neumann prensibine dayandığı için sorun kökten çözülememektedir. HBM bellekler, veriyi işlemciye daha yakın bir konuma (2.5D paketleme ile) getirerek enerji maliyetini düşürse de (LPDDR’a göre daha düşük pJ/bit), toplam güç tüketimi hala devasa boyutlardadır.7
1.4 Uzay Uygulamaları İçin Kritik Çıkarımlar
NASA’nın derin uzay misyonlarında (örneğin Mars yüzeyindeki bir gezgin veya Europa’ya inecek bir araç), enerji üretimi Güneş’e olan uzaklık veya Radyoizotop Termoelektrik Jeneratörlerinin (RTG) kapasitesi ile sınırlıdır. Karasal veri merkezlerinde binlerce watt güç çekebilen AI modellerini uzayda çalıştırmak, Von Neumann mimarisinin getirdiği bu enerji verimsizliği nedeniyle mümkün değildir. Bu durum, uzayda çalışacak yapay zeka modelleri için ya çok daha verimli mimarilere geçilmesini ya da mevcut modellerin (Transformer gibi) ciddi şekilde optimize edilmesini zorunlu kılmaktadır.
2. Transformer Paradigması: Yapısal Analiz, Başarılar ve Kısıtlamalar
2017 yılında “Attention Is All You Need” makalesiyle tanıtılan Transformer mimarisi, Doğal Dil İşleme (NLP) ve Bilgisayarlı Görü (Computer Vision) alanlarında bir devrim yaratmıştır. Ancak, bu mimari, Von Neumann darboğazını daha da derinleştiren ve kendi içinde ölçeklenebilirlik sorunları barındıran özelliklere sahiptir.
2.1 Öz-Dikkat (Self-Attention) Mekanizması ve $O(N^2)$ Karmaşıklığı
Transformer’ın kalbinde “Öz-Dikkat” mekanizması yatar. Bu mekanizma, bir girdi dizisindeki her bir elemanın (token), dizideki diğer tüm elemanlarla olan ilişkisini hesaplamasını sağlar. Bu sayede model, uzun mesafeli bağımlılıkları (long-range dependencies) yakalayabilir ve bağlamı anlayabilir. Ancak bu yeteneğin matematiksel bedeli ağırdır.
$N$ uzunluğunda bir dizi için, Öz-Dikkat mekanizması $N \times N$ boyutunda bir dikkat matrisi hesaplar. Bu işlem, hesaplama karmaşıklığının ve bellek gereksiniminin $N$’in karesiyle ($O(N^2)$) artmasına neden olur.
Matematiksel olarak dikkat işlemi şu şekilde ifade edilir:
$$Attention(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V$$
Burada $Q$ (Sorgu), $K$ (Anahtar) ve $V$ (Değer) matrisleridir. $QK^T$ çarpımı, $N \times N$ boyutunda bir matris üretir.
- Kısa Bağlamlar: Kısa metinler veya düşük çözünürlüklü görüntüler için bu maliyet yönetilebilir düzeydedir.
- Uzun Bağlamlar: Uzay misyonlarında, örneğin günlerce süren telemetri verilerinin analizi veya yüksek çözünürlüklü gezegen yüzeyi taramaları gibi “sonsuz” uzunluktaki veri akışlarında, $O(N^2)$ karmaşıklığı bir duvara toslar. Dizi uzunluğu iki katına çıktığında, işlem yükü dört katına çıkar. Bu durum, Transformer modellerinin çok uzun süreli verileri işlemesini pratik olarak imkansız hale getirir.9
2.2 KV Önbelleği (KV Cache) ve Bant Genişliği Darboğazı
Transformer modelleri genellikle “otoregresif” (autoregressive) çalışır; yani bir sonraki kelimeyi veya veriyi tahmin ederken geçmişteki tüm verileri kullanır. Modelin her adımda geçmiş verilerin temsillerini (key ve value vektörleri) yeniden hesaplamaması için, bu değerler GPU belleğinde (VRAM) saklanır. Bu yapıya KV Önbelleği (Key-Value Cache) denir.
KV Cache, modern LLM çıkarımında (inference) en büyük bellek darboğazını oluşturur:
- Bellek Kapasitesi: KV Cache boyutu, dizi uzunluğu ($N$) ve katman sayısı ile doğrusal olarak büyür. Uzun bağlamlı bir sohbette veya analizde, KV Cache gigabytelarca yer kaplayarak GPU belleğini doldurabilir. Bu durum “Out of Memory” (OOM) hatalarına yol açar.
- Bellek Bant Genişliği: Her bir yeni token üretildiğinde, işlemci tüm KV Cache verisini bellektrn (HBM) çip üzerindeki işlem birimlerine taşımak zorundadır. Bu işlemdeki “aritmetik yoğunluk” (arithmetic intensity) son derece düşüktür; yani yapılan işlem başına çok fazla veri transferi gerektirir. Sonuç olarak, GPU’nun hesaplama gücü (FLOPS) ne kadar yüksek olursa olsun, sistem bellek bant genişliği ile sınırlanır (memory-bound). Uzay araçlarında kullanılan radyasyona dayanıklı belleklerin bant genişliği karasal HBM belleklere göre çok daha düşük olduğundan, bu sorun uzayda katlanarak büyür.9
2.3 Fonksiyonel Kısıtlamalar: “Lost-in-the-Middle” ve “Reversal Curse”
Donanım kısıtlamalarının ötesinde, Transformer mimarisinin algoritmik yapısında da bazı temel eksiklikler tespit edilmiştir.
2.3.1 “Lost-in-the-Middle” (Ortada Kaybolma) Fenomeni
Araştırmalar, geniş bağlam penceresine (context window) sahip LLM’lerin, verinin tamamına eşit derecede odaklanamadığını göstermiştir. Modeller, girdinin başındaki (primacy effect) ve sonundaki (recency effect) bilgilere yüksek doğrulukla erişebilirken, bağlamın ortasında yer alan bilgileri gözden kaçırma eğilimindedir. Bu durum, bir U-eğrisi şeklinde performans grafiği oluşturur.12
Uzay Misyonu Örneği: Bir Mars gezgini, 24 saatlik sensör verisini analiz ederken, 12. saatte (verinin tam ortasında) gerçekleşen kritik bir voltaj dalgalanmasını tespit edemeyebilir. Bu “dikkat kaybı”, güvenlik açısından kritik sistemlerde kabul edilemez bir risktir.
2.3.2 “Reversal Curse” (Tersine Çevirme Laneti)
Otoregresif modeller, veriyi soldan sağa (veya tek yönlü) okuyarak eğitildikleri için, nedensel ilişkileri tersine çevirmekte zorlanırlar. Eğer model “A, B’dir” şeklinde eğitilmişse, “B nedir?” sorusuna cevap veremeyebilir. Buna Reversal Curse denir.15
Örnek: Model, “Neil Armstrong, Ay’a ayak basan ilk insandır” cümlesiyle eğitildiyse, “Ay’a ayak basan ilk insan kimdir?” sorusunu cevaplayabilir. Ancak, eğitim verisinde tersi yoksa, model bu basit mantıksal çıkarımı yapamayabilir. Arıza tespiti senaryolarında, “Valf arızası basınç düşüşüne neden olur” bilgisini öğrenen bir modelin, basınç düşüşü gördüğünde “Valf arızası” teşhisini koyamaması (tersine çıkarım yapamaması) hayati bir eksikliktir.17
2.4 Planlama Eksikliği, Halüsinasyonlar ve “Dünya Modeli” Yoksunluğu
Yann LeCun gibi önde gelen yapay zeka araştırmacıları, mevcut LLM’lerin gerçek bir “zekaya” sahip olmadığını savunmaktadır. Bu modeller, fiziksel dünyanın, neden-sonuç ilişkilerinin veya nesne sürekliliğinin bir iç modeline (World Model) sahip değildir. Sadece istatistiksel olarak bir sonraki kelimeyi tahmin etmeye çalışırlar.19
- Planlama: LLM’ler, bir hedefe ulaşmak için gereken adımları zihinsel olarak simüle edemezler. Bir satranç oyuncusu gibi hamleleri önceden düşünüp sonuçlarını değerlendiremezler; sadece o an için en olası hamleyi yaparlar. Bu durum, karmaşık görevlerde tutarsızlığa ve hatalı planlara yol açar.21
- Halüsinasyon: Gerçek dünya ile doğrulanabilir bir bağları olmadığı için, modeller inandırıcı ama tamamen uydurma bilgiler üretebilirler. Uzay operasyonlarında bir astronota yanlış bir tamir prosedürü öneren veya yer kontrolüne hatalı telemetri yorumu yapan bir yapay zeka, felakete yol açabilir. Halüsinasyonları önlemek için kullanılan RAG (Retrieval Augmented Generation) gibi yöntemler de dış veri kaynağının kalitesine bağımlıdır ve sorunu kökten çözmez.23
3. Yeni Nesil Mimariler: Doğrusal Dikkat ve Durum Uzayı Modelleri (Mamba & RWKV)
Transformer’ın $O(N^2)$ maliyeti ve Von Neumann darboğazı ile olan uyumsuzluğu, araştırmacıları doğrusal karmaşıklığa ($O(N)$) sahip, yani dizi uzunluğuyla orantılı olarak artan ancak karesel büyümeyen mimarilere yöneltmiştir. Bu alandaki en umut verici iki aday Mamba (State Space Models) ve RWKV‘dir.
3.1 RWKV (Receptance Weighted Key Value): RNN ve Transformer’ın Hibritleşmesi
RWKV, Transformer’ların paralel eğitilebilirliğini, Tekrarlayan Sinir Ağlarının (RNN) verimli çıkarım (inference) yeteneği ile birleştiren bir mimaridir. İsmini mimaride kullanılan dört ana parametreden alır: R (Receptance), W (Weight), K (Key) ve V (Value).25
3.1.1 Çalışma Prensibi ve Matematiksel Temel
RWKV, standart dikkat mekanizmasındaki $QK^T$ matris çarpımını kaldırır ve yerine lineer bir yineleme (recurrence) koyar. “Linear Attention” (Doğrusal Dikkat) prensibine dayanan bu yapı, geçmiş bilgiyi sabit boyutlu bir “durum” (state) içinde saklar.
- Token Shift (Zaman Kaydırma): RWKV, her adımda mevcut girdiyi ($x_t$) bir önceki adımdaki girdi ($x_{t-1}$) ile karıştırır. Bu işlem, modelin yerel bağlamı (local context) çok ucuza yakalamasını sağlar.
- WKV Mekanizması: Dikkat ağırlıkları, zamanla sönümlenen (decay) bir ağırlık vektörü ($W$) ile kontrol edilir. Bu, modelin ne kadar geçmişi hatırlayacağını belirler.
Matematiksel olarak basitleştirilmiş bir RWKV zaman karıştırma (time-mixing) işlemi şu şekildedir:
$$wkv_t = \frac{\sum_{i=1}^{t-1} e^{-(t-1-i)w + k_i} v_i + e^{u+k_t} v_t}{\sum_{i=1}^{t-1} e^{-(t-1-i)w + k_i} + e^{u+k_t}}$$
Bu formül yinelemeli (recursive) olarak hesaplanabilir, böylece tüm geçmişi hafızada tutmaya gerek kalmaz.25
3.1.2 Avantajları
- Sabit Bellek ($O(1)$): Dizi ne kadar uzun olursa olsun, çıkarım sırasında kullanılan bellek miktarı sabittir. Devasa bir KV Cache tutmaya gerek yoktur. Bu, bellek bant genişliği darboğazını (Von Neumann Vergisi) doğrudan elimine eder.
- Hız: Çıkarım hızı sabittir ve Transformer’lara göre çok daha hızlıdır.27
3.2 Mamba ve Seçici Durum Uzayı Modelleri (Selective SSMs)
Mamba, kontrol teorisinden türetilen Durum Uzayı Modelleri’ne (SSM) dayanır. 2023 sonunda Gu ve Dao tarafından tanıtılan Mamba, “Seçici” (Selective) mekanizmasıyla SSM’lerin en büyük eksikliği olan “bağlam duyarlılığı” sorununu çözmüştür.
3.2.1 Matematiksel Altyapı
Sürekli zamanlı bir sistem şu şekilde ifade edilir:
$$h'(t) = A h(t) + B x(t)$$
$$y(t) = C h(t)$$
Mamba, bu sürekli denklemi dijital bilgisayarlarda işlemek için ayrıklaştırır (discretization). Ayrıklaştırma adımı $\Delta$ (delta) parametresi ile kontrol edilir:
$$h_t = \bar{A} h_{t-1} + \bar{B} x_t$$
3.2.2 Seçici Tarama (Selective Scan) ve Veri Bağımlılığı
Geleneksel SSM’lerde $A, B, C$ matrisleri sabittir (Time-Invariant). Bu durum modelin eğitimi hızlı (convolution ile) yapmasını sağlar ancak modelin girdiye göre dinamik davranmasını engeller. Mamba, bu matrisleri girdinin bir fonksiyonu ($B(x_t), C(x_t), \Delta(x_t)$) haline getirir.
Bu “Seçicilik”, modelin hangi bilgiyi saklayacağına (State’e yazacağına) ve hangisini unutacağına o anki veriye bakarak karar vermesini sağlar. Transformer’daki “Attention” mekanizmasının yaptığı işi, $O(N)$ karmaşıklığıyla yapar.29
3.2.3 Donanım Duyarlı Paralel Tarama (Hardware-Aware Parallel Scan)
Mamba’nın en büyük inovasyonu, yinelemeli (recurrent) işlemi GPU üzerinde paralelleştiren algoritmasıdır. Standart bir for döngüsü GPU’da yavaştır. Mamba, “Parallel Associative Scan” (koşut İlişkisel Tarama) algoritmasını kullanır.
Daha da önemlisi, Mamba Kernel Fusion tekniğini kullanır. $A, B, C, \Delta$ parametrelerini yavaş olan HBM (DRAM) belleğinden hızlı olan SRAM (Önbellek) belleğine yükler, tüm hesaplamayı SRAM içinde yapar ve sadece sonucu geri yazar. Bu yaklaşım, bellek I/O trafiğini minimize ederek Von Neumann darboğazını aşar ve Transformer’lara göre 5 kat daha yüksek çıkarım hızı (throughput) sağlar.31
3.3 Mamba-2 ve Durum Uzayı Dualitesi (SSD)
Mamba-2, SSM’ler ile Doğrusal Dikkat mekanizmaları arasında teorik bir bağ kurmuştur: State Space Duality (SSD). Bu teori, belirli yapıdaki matrislerin (semi-separable matrices) hem SSM hem de Dikkat mekanizması olarak ifade edilebileceğini gösterir. Bu sayede Mamba-2, GPU’ların matris çarpım birimlerini (Tensor Cores) daha verimli kullanarak eğitim hızını daha da artırır.33
| Özellik | Transformer | RWKV | Mamba (SSM) |
| Karmaşıklık | $O(N^2)$ (Karesel) | $O(N)$ (Doğrusal) | $O(N)$ (Doğrusal) |
| Çıkarım Belleği | Artan (KV Cache) | Sabit ($O(1)$) | Sabit ($O(1)$) |
| Eğitim | Paralel | Paralel | Paralel (Scan ile) |
| İçerik Kopyalama | Mükemmel | Orta | Orta (Durum sıkıştırması nedeniyle) |
| Uzun Bağlam | Sınırlı (Bellek yetmezliği) | Çok İyi (Unutma sorunu olabilir) | Mükemmel (Seçicilik sayesinde) |
Tablo, Mamba ve RWKV’nin özellikle uzun bağlamlı ve bellek kısıtlı uzay uygulamaları için Transformer’a göre neden daha uygun olduğunu özetlemektedir.
4. Dünya Modelleri ve Otonom Planlama (JEPA)
Mimari verimliliğin ötesinde, yapay zekanın “akıl yürütme” yeteneği de sorgulanmaktadır. Yann LeCun’un öncülüğünü yaptığı Joint Embedding Predictive Architecture (JEPA), üretken (generative) modellerin eksikliklerini gidermeyi hedefler.
4.1 Tahmin vs. Üretim (Prediction vs. Generation)
Mevcut LLM’ler ve difüzyon modelleri “üretkendir”; yani pikselleri veya kelimeleri tek tek tahmin ederek bir çıktı oluştururlar. Bu işlem çok detaylıdır ve hataya açıktır. JEPA ise tahmin edicidir; ancak pikselleri değil, verinin soyut temsilini (embedding) tahmin eder.
JEPA, girdinin bir kısmını (context) alır ve maskelenmiş diğer kısmının soyut temsilini tahmin etmeye çalışır. Bu süreçte, gereksiz detayları (örneğin bir videodaki ağaç yapraklarının rastgele hareketi) atar ve sadece önemli anlamsal bilgiyi (arabanın yoldaki hareketi) öğrenir. Bu, modelin bir “Dünya Modeli” oluşturmasını, yani fiziksel dünyanın nasıl işlediğine dair bir içgörü kazanmasını sağlar.35
4.2 Latent Uzayda Planlama ve Halüsinasyonsuzluk
JEPA, gelecekteki durumları soyut uzayda simüle edebilir. Bu, bir robotun veya uzay aracının, bir eylemi gerçekleştirmeden önce sonucunu “hayal etmesine” ve plan yapmasına olanak tanır.
- Planlama: Model, $State_t$ durumundan $Action$ eylemiyle hangi $State_{t+1}$ durumuna geçeceğini tahmin eder. Bunu yaparken üretken modeller gibi her pikseli oluşturmak zorunda olmadığı için çok hızlıdır.
- Doğruluk: Üretken olmadığı için “halüsinasyon” (gerçekte olmayan detaylar uydurma) problemi minimize edilmiştir. Model sadece sistemin durumunu tahmin eder, hikaye uydurmaz.35
Bu özellikler, JEPA’yı, hatanın tolere edilemeyeceği Mars yüzey operasyonları veya otonom kenetlenme manevraları için ideal bir aday yapmaktadır.
5. NASA HPSC: Uzay İçin Yüksek Performanslı Hesaplama
NASA, yukarıda tartışılan modern algoritmaları çalıştırabilecek donanım altyapısını oluşturmak amacıyla Yüksek Performanslı Uzay Uçuşu Bilgisayarı (HPSC – High-Performance Spaceflight Computing) projesini başlatmıştır. Bu proje kapsamında Microchip Technology ve SiFive ile işbirliği yapılarak, mevcut uzay işlemcilerinden (RAD750 gibi) 100 kat daha güçlü bir çip geliştirilmektedir.
5.1 RISC-V Mimarisi ve Vektör Uzantıları (RVV)
HPSC, açık kaynaklı RISC-V komut seti mimarisini (ISA) temel alır. İşlemci, SiFive tarafından tasarlanan X280 çekirdeklerini kullanır.
- Çok Çekirdekli Yapı: HPSC, heterojen bir yapıya sahiptir. Toplamda 12 çekirdekli bir kümeleme (cluster) yapısı (8 adet X280 + 4 adet genel amaçlı çekirdek) sunarak esneklik sağlar.38
- RISC-V Vektör Uzantısı (RVV 1.0): HPSC’nin en kritik özelliği, yapay zeka iş yüklerini hızlandırmak için donanımsal vektör ünitelerine sahip olmasıdır. X280 çekirdekleri, 512-bit genişliğinde vektör kayıtçılarına (register) sahiptir. Bu üniteler, tek bir komutla büyük veri dizileri üzerinde matematiksel işlem yapabilir (SIMD). Bu özellik, sinir ağlarının temelini oluşturan tensör işlemlerini (matris çarpımı, konvolüsyon) CPU üzerinde son derece verimli bir şekilde çalıştırmayı mümkün kılar.39
Önemli: RVV sayesinde, HPSC üzerinde Mamba veya Transformer modellerinin “quantized” (INT8) versiyonları, özel bir GPU’ya ihtiyaç duymadan, doğrudan CPU üzerinde yüksek performansla çalıştırılabilir.
5.2 WorldGuard ve Donanım Tabanlı İzolasyon
Uzay araçlarında, uçuş kontrol yazılımı (gn&c) ile deneysel yapay zeka yazılımlarının aynı işlemci üzerinde çalışması büyük bir risk oluşturur. Yapay zekanın yapacağı bir hata veya bellek taşması, aracı kontrolden çıkarabilir.
HPSC, bu riski yönetmek için SiFive WorldGuard teknolojisini kullanır.
- Çalışma Prensibi: WorldGuard, işlemci içindeki veri yoluna (bus) ve bellek denetleyicisine donanımsal etiketler (World ID – WID) ekler. Her işlem (transaction), hangi “Dünya”dan (World) geldiğine dair bir kimlik taşır.
- İzolasyon: Örneğin, hayati uçuş yazılımı World_0 (Güvenli) olarak etiketlenirken, otonom görüntü işleme yazılımı World_1 (Güvensiz) olarak etiketlenir. Donanım, World_1’den gelen hiçbir isteğin World_0’a ait belleğe veya çevresel birime (örneğin motor kontrolcüsüne) erişmesine izin vermez. Bu koruma yazılım seviyesinde değil, fiziksel donanım seviyesinde gerçekleşir, dolayısıyla yazılım hataları bu korumayı aşamaz.42
5.3 Radyasyon Toleransı ve Hata Yönetimi
HPSC, uzaydaki ağır iyon bombardımanına ve kozmik radyasyona dayanacak şekilde “Radiation-Hardened by Design” (RHBD) teknikleriyle üretilmektedir.
- Dual-Core Lockstep (DCLS): Kritik işlemlerde, iki çekirdek aynı kodu aynı anda çalıştırır ve sonuçları karşılaştırır. Eğer sonuçlar uyuşmazsa (bir bit hatası/SEU oluşmuşsa), işlemci hatayı tespit eder ve düzeltir.
- Güç Yönetimi: RISC-V mimarisi, kullanılmayan çekirdeklerin veya vektör ünitelerinin gücünü tamamen kesebilir (power gating). Bu, HPSC’nin sadece gerektiğinde yüksek performans moduna geçmesini, diğer zamanlarda ise minimum enerjiyle çalışmasını sağlar.45
6. Nöromorfik Hesaplama: Biyolojik İlham ve Radyasyon Toleransı
NASA, HPSC gibi dijital işlemcilerin ötesinde, insan beyninin çalışma prensiplerini taklit eden Nöromorfik Hesaplama teknolojilerini de araştırmaktadır. Bu alanda Intel’in Loihi ve Loihi 2 çipleri öne çıkmaktadır.
6.1 Çivili Sinir Ağları (SNN) ve Olay Tabanlı İşleme
Geleneksel yapay zeka sürekli değerlerle çalışırken, nöromorfik çipler Çivili Sinir Ağları (Spiking Neural Networks – SNN) kullanır. SNN’lerde bilgi, zaman içindeki ayrık “çiviler” (spikes) veya olaylar (events) ile taşınır.
- Enerji Verimliliği: Nöronlar sadece bir girdi (spike) aldıklarında aktif olurlar. Eğer bir sensörde değişim yoksa (örneğin uzay boşluğuna bakan bir kamera), sistem neredeyse sıfır enerji harcar. Bu “seyreklik” (sparsity), nöromorfik sistemleri GPU’lara göre 1000 kata kadar daha verimli kılar.47
- Bellek-İşlem Bütünleşmesi: Nöromorfik mimaride, her nöron kendi belleğine sahiptir. Veri ile işlem birimi iç içedir. Bu yapı, Von Neumann darboğazını tamamen ortadan kaldırır çünkü veri taşınmaz, olduğu yerde işlenir.49
6.2 Uzayda Testler ve Radyasyon Sonuçları

NASA Ames Araştırma Merkezi, TechEdSat küp uydu serisi ile nöromorfik işlemcileri yörüngede test etmiştir (örneğin TechEdSat-13).
- Bulgular: Testler, Loihi çipinin uzay ortamında çalışabildiğini göstermiştir. Loihi, ticari bir üretim sürecine (14nm) sahip olmasına rağmen, yazılımsal ve mimari yedekleme yöntemleri (örneğin aynı ağı üç kez çalıştırıp oylama yapma – Triple Modular Redundancy) ile radyasyon kaynaklı hatalara karşı dirençli hale getirilebilmiştir. Nöral ağların dağıtık yapısı (birkaç nöronun ölmesinin genel sonucu değiştirmemesi) da doğal bir tolerans sağlamaktadır.51
7. Sonuç ve Stratejik Öngörüler: Geleceğin Mimarisi
Uzay havacılığı ve otonom sistemlerin geleceği, donanım ve yazılımın simbiyotik bir evrimine bağlıdır. Von Neumann mimarisinin enerji duvarı ve Transformer’ların hesaplama yükü, mevcut yaklaşımların sürdürülemez olduğunu kanıtlamıştır.
Stratejik Çıkarımlar:
- Hibrit Mimarilere Geçiş: Geleceğin uçuş bilgisayarları tek tip olmayacaktır. HPSC gibi güçlü RISC-V işlemciler genel yönetim ve ağır matematiksel işlemler için kullanılırken, Mamba veya RWKV gibi lineer modeller sürekli veri akışını işleyecek, Nöromorfik yardımcı işlemciler ise “her zaman açık” (always-on) sensör izleme görevlerini mikrowatt seviyesinde enerjiyle yapacaktır.
- Yazılımda Paradigma Değişimi: NASA, görev kritik otonomi için Transformer’lardan uzaklaşmalı ve Durum Uzayı Modellerine (Mamba) yönelmelidir. Mamba’nın sabit bellek kullanımı ve yüksek çıkarım hızı, uzay aracının sınırlı donanımında “sonsuz” uzunlukta veri işlemeyi mümkün kılar.
- Güvenilirlik İçin Dünya Modelleri: İstatistiksel tahmin yerine nedensel akıl yürütmeye dayalı JEPA benzeri mimariler ve bunların WorldGuard gibi donanım izolasyonlarıyla korunması, güvenli otonomun anahtarıdır.
Özetle, “daha büyük model, daha çok veri” devri uzay için kapanmıştır. Artık devir, “daha akıllı mimari, daha verimli fizik” devridir. NASA’nın HPSC ve nöromorfik araştırmaları, bu yeni çağın donanım temelini oluştururken, Mamba ve JEPA gibi algoritmalar da bu donanım üzerinde çalışacak zekayı tanımlayacaktır.
Alıntılanan çalışmalar
- Von Neumann architecture – Wikipedia, erişim tarihi Aralık 15, 2025, https://en.wikipedia.org/wiki/Von_Neumann_architecture
- Tearing Down the Memory Wall – Juniper Elevate Community, erişim tarihi Aralık 15, 2025, https://community.juniper.net/blogs/sharada-yeluri/2022/08/22/tearing-down-memory-wall
- EIE: Efficient Inference Engine on Compressed Deep Neural Network – CSE, IIT Delhi, erişim tarihi Aralık 15, 2025, https://www.cse.iitd.ac.in/~rijurekha/course/eie.pdf
- View of The Evolution of High-Speed Interfaces and Memory Systems in AI Architectures, erişim tarihi Aralık 15, 2025, https://jisem-journal.com/index.php/journal/article/view/12638/5880
- Semiconductor Manufacturing Energy Consumption: How Green Is the Chip Industry? (Latest Stats) | PatentPC, erişim tarihi Aralık 15, 2025, https://patentpc.com/blog/semiconductor-manufacturing-energy-consumption-how-green-is-the-chip-industry-latest-stats
- Power And Performance Optimization At 7/5/3nm – Semiconductor Engineering, erişim tarihi Aralık 15, 2025, https://semiengineering.com/power-and-performance-optimization-at-7-5-3nm/
- The Diverging Paths of Memory: How DDR5 and HBM Are Reshaping Computing – Medium, erişim tarihi Aralık 15, 2025, https://medium.com/@kvnagesh/the-diverging-paths-of-memory-how-ddr5-and-hbm-are-reshaping-computing-d03f40a51f63
- Micron’s New HBM3 Gen2 is World’s Fastest at 1.2 TB/s, Teases Next-Gen at 2 TB/s+, erişim tarihi Aralık 15, 2025, https://www.tomshardware.com/news/microns-new-hbm3-is-worlds-fastest-at-12-tbs-also-highest-capacity-in-8-high-stack
- KV Caching & Attention Optimization: From O(n²) to O(n) | by pdawg – Medium, erişim tarihi Aralık 15, 2025, https://medium.com/@prathamgrover777/kv-caching-attention-optimization-from-o-n%C2%B2-to-o-n-8b605f0d4072
- Characterizing the Behavior and Impact of KV Caching on Transformer Inferences under Concurrency – Computer Science – Illinois Institute of Technology, erişim tarihi Aralık 15, 2025, http://cs.iit.edu/~scs/assets/files/ye2025unboxkv_io.pdf
- Reducing Transformer Key-Value Cache Size with Cross-Layer Attention – arXiv, erişim tarihi Aralık 15, 2025, https://arxiv.org/html/2405.12981v1
- Lost-in-the-Middle Effect | LLM Knowledge Base – Promptmetheus, erişim tarihi Aralık 15, 2025, https://promptmetheus.com/resources/llm-knowledge-base/lost-in-the-middle-effect
- Overcome Lost In Middle Phenomenon In RAG Using LongContextRetriver – AI Planet, erişim tarihi Aralık 15, 2025, https://medium.aiplanet.com/overcome-lost-in-middle-phenomenon-in-rag-using-longcontextretriver-2334dc022f0e
- Lost in the Middle: How Language Models Use Long Contexts – MIT Press Direct, erişim tarihi Aralık 15, 2025, https://direct.mit.edu/tacl/article/doi/10.1162/tacl_a_00638/119630/Lost-in-the-Middle-How-Language-Models-Use-Long
- Overcoming the ‘reversal curse’ in LLMs with ReCall – MBZUAI, erişim tarihi Aralık 15, 2025, https://mbzuai.ac.ae/news/overcoming-the-reversal-curse-in-llms-with-recall/
- THE REVERSAL CURSE: LLMS TRAINED ON “A IS B” FAIL TO LEARN “B IS A” – ICLR Proceedings, erişim tarihi Aralık 15, 2025, https://proceedings.iclr.cc/paper_files/paper/2024/file/5178b2f2d7c44aa390c0777dc77b3f0c-Paper-Conference.pdf
- Towards a Theoretical Understanding of the ‘Reversal Curse’ via Training Dynamics – arXiv, erişim tarihi Aralık 15, 2025, https://arxiv.org/abs/2405.04669
- Exploring the reversal curse and other deductive logical reasoning in BERT and GPT-based large language models – NIH, erişim tarihi Aralık 15, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC11573886/
- Yann Lecun: Meta AI, Open Source, Limits of LLMs, AGI & the Future of AI | Lex Fridman Podcast #416, erişim tarihi Aralık 15, 2025, https://www.getrecall.ai/summary/lex-fridman/yann-lecun-meta-ai-open-source-limits-of-llms-agi-and-the-future-of-ai-or-lex-fridman-podcast-416
- World Models vs. Word Models: Why Yann LeCun Believes LLMs Will Be Obsolete – Medium, erişim tarihi Aralık 15, 2025, https://medium.com/state-of-the-art-technology/world-models-vs-word-models-why-lecun-believes-llms-will-be-obsolete-23795e729cfa
- How to teach chain of thought reasoning to your LLM | Invisible Blog, erişim tarihi Aralık 15, 2025, https://invisibletech.ai/blog/how-to-teach-chain-of-thought-reasoning-to-your-llm
- Can LLM-Reasoning Models Replace Classical Planning? A Benchmark Study – arXiv, erişim tarihi Aralık 15, 2025, https://arxiv.org/html/2507.23589v1
- Hallucination to Truth: A Review of Fact-Checking and Factuality Evaluation in Large Language Models – arXiv, erişim tarihi Aralık 15, 2025, https://arxiv.org/html/2508.03860v1
- Stop LLM Hallucinations: Reduce Errors by 60–80% – Master of Code, erişim tarihi Aralık 15, 2025, https://masterofcode.com/blog/hallucinations-in-llms-what-you-need-to-know-before-integration
- RWKV Architecture History, erişim tarihi Aralık 15, 2025, https://wiki.rwkv.com/basic/architecture.html
- A Survey of RWKV – arXiv, erişim tarihi Aralık 15, 2025, https://arxiv.org/html/2412.14847v2
- A Survey of RWKV – arXiv, erişim tarihi Aralık 15, 2025, https://arxiv.org/html/2412.14847v1
- How RWKV creates more efficient LLMs | by Devansh – Medium, erişim tarihi Aralık 15, 2025, https://machine-learning-made-simple.medium.com/how-rwkv-creates-more-efficient-llms-04ddf197b219
- What Is A Mamba Model? | IBM, erişim tarihi Aralık 15, 2025, https://www.ibm.com/think/topics/mamba-model
- Mamba Explained – The Gradient, erişim tarihi Aralık 15, 2025, https://thegradient.pub/mamba-explained/
- Mamba Selective State Space Model – Emergent Mind, erişim tarihi Aralık 15, 2025, https://www.emergentmind.com/topics/mamba-based-selective-state-space-model
- Mamba: Linear-Time Sequence Modeling with Selective State Spaces – arXiv, erişim tarihi Aralık 15, 2025, https://arxiv.org/html/2312.00752v2
- State Space Duality (Mamba-2) Part I – The Model | Tri Dao, erişim tarihi Aralık 15, 2025, https://tridao.me/blog/2024/mamba2-part1-model/
- State Space Duality (Mamba-2) Part II – The Theory | Goomba Lab, erişim tarihi Aralık 15, 2025, https://goombalab.github.io/blog/2024/mamba2-part2-theory/
- Deep Dive into Yann LeCun’s JEPA – Rohit Bandaru, erişim tarihi Aralık 15, 2025, https://rohitbandaru.github.io/blog/JEPA-Deep-Dive/
- Beyond Next-Token Prediction: Yann LeCun’s JEPA and the Quest for AI Common Sense — Where…, erişim tarihi Aralık 15, 2025, https://medium.com/@ilyurek/beyond-next-token-prediction-yann-lecuns-jepa-and-the-quest-for-ai-common-sense-where-92150bed9dfd
- The Anatomy of JEPA: The Architecture Behind embedded Predictive Representation Learning | by Tyler Frink | Medium, erişim tarihi Aralık 15, 2025, https://medium.com/@frinktyler1445/the-anatomy-of-jepa-the-architecture-behind-embedded-predictive-representation-learning-994bfa0bffe0
- NASA Recruits Microchip, SiFive, and RISC-V to Develop 12-Core Processor SoC for Autonomous Space Missions, erişim tarihi Aralık 15, 2025, https://riscv.org/blog/nasa-recruits-microchip-sifive-and-risc-v-to-develop-12-core-processor-soc-for-autonomous-space-missions/
- NASA Uses RISC-V Vector Spec to Soup Up Space Computers – EE Times, erişim tarihi Aralık 15, 2025, https://www.eetimes.com/nasa-uses-risc-v-vector-spec-to-soup-up-space-computers/
- Microchip Unveils Industry’s Highest Performance 64-bit HPSC Microprocessor (MPU) Family for a New Era of Autonomous Space Computing, erişim tarihi Aralık 15, 2025, https://www.microchip.com/en-us/about/news-releases/products/microchip-unveils-industrys-highest-performance-64-bit-hpsc-mpu
- NASA’s High Performance Spaceflight Computer, erişim tarihi Aralık 15, 2025, https://www.nasa.gov/wp-content/uploads/2024/07/hpsc-white-paper-tmg-23jul2024.pdf
- NASA High Performance Spaceflight Computing (HPSC) Overview, erişim tarihi Aralık 15, 2025, https://ntrs.nasa.gov/api/citations/20250000356/downloads/Powell-cFS-2025-HPSC_for2025Jan29.pdf
- Security & Quality – SiFive, erişim tarihi Aralık 15, 2025, https://www.sifive.com/security-and-quality
- WorldGuard High-level specification, erişim tarihi Aralık 15, 2025, https://lists.riscv.org/g/tech-tee/attachment/266/0/WorldGuard%20High-level%20specification.pdf
- NASA High Performance Spaceflight Computing (HPSC) Overview, erişim tarihi Aralık 15, 2025, https://ntrs.nasa.gov/api/citations/20240012768/downloads/Powell-PESTO-2024-HPSC%2010032024a.pdf
- PIC64: Enabling a New Era of Mission Critical Computing – Microchip Technology, erişim tarihi Aralık 15, 2025, https://www.microchip.com/en-us/about/media-center/blog/2025/pic64-enabling-a-new-era-of-mission-critical-computing
- Radiation Tolerance and Mitigation for Neuromorphic Processors – NASA Technical Reports Server (NTRS), erişim tarihi Aralık 15, 2025, https://ntrs.nasa.gov/citations/20220013182
- Intel Loihi 2 Neuromorphic Processor : Specifications, Architecture, Working, Differences & Its Applications – ElProCus, erişim tarihi Aralık 15, 2025, https://www.elprocus.com/intel-loihi2-neuromorphic-processor/
- How the von Neumann bottleneck is impeding AI computing – IBM Research, erişim tarihi Aralık 15, 2025, https://research.ibm.com/blog/why-von-neumann-architecture-is-impeding-the-power-of-ai-computing
- Neuromorphic artificial intelligence systems – PMC – PubMed Central – NIH, erişim tarihi Aralık 15, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC9516108/
- Radiation Tolerance and Mitigation for Neuromorphic Processors – NASA Technical Reports Server, erişim tarihi Aralık 15, 2025, https://ntrs.nasa.gov/api/citations/20220013182/downloads/Rad-tolerance-report-2022.pdf
- GCD Annual Program Review – Project Presentation Template, erişim tarihi Aralık 15, 2025, https://ntrs.nasa.gov/api/citations/20210021885/downloads/GCD%20APR%20-%20RadNeuroSept2021AmesReview.pptx.pdf
- BrainStack: A Platform for Artificial Intelligence and Machine Learning Collaborative Experiments of a Nanosatellite, erişim tarihi Aralık 15, 2025, https://ntrs.nasa.gov/api/citations/20230011534/downloads/BrainStack_SSC23_Presentation.pdf

4 thoughts on “Von Neumann Darboğazı Nedir?”