
De afgelopen twee jaar draaiden de AI-discussies vrijwel uitsluitend om rekenkracht: niet genoeg GPU's, onvoldoende rekencapaciteit en ontoereikende clusters.Maar dit rapport benadrukt herhaaldelijk één belangrijk punt: wat AI werkelijk tegenhoudt, is niet het onvermogen om te rekenen, maar de onvermogen om gegevens te verplaatsen.
Nu de modelgroottes zijn uitgebreid van tientallen megabytes naar enkele gigabytes, zijn de drukste componenten in het systeem niet langer rekeneenheden, maar geheugen en bussen.Met andere woorden: het knelpunt van AI verschuift stilletjes – van een ‘computerprobleem’ naar een meer fundamenteel voorstel: een opslag probleem.
Dit heeft geleid tot een radicalere richting: als het verplaatsen van data de grootste overhead is, waarom zouden we dan de berekeningen niet laten gebeuren? direct in opslag?
Een architectuur genaamd Compute-in-Memory (CIM) probeert deze logica vanaf de root te herschrijven.De sleutel om dit mogelijk te maken is niet een meer geavanceerd procesknooppunt, maar een type technologie dat in het verleden niet zo ‘mainstream’ was –analoog geheugen.
Dit artikel nodigt ons uit om een kritische vraag te heroverwegen: terwijl AI evolueert naar waar het nu is, wat bepaalt werkelijk de bovengrens: computerkracht of opslag?
Het prestatieknelpunt van AI verschuift van ‘rekenkracht’ naar ‘opslag en gegevensverplaatsing’, en de oplossing ligt in het reconstrueren van het computerparadigma met ‘analoog geheugen + Compute-in-Memory (CIM)’.
De kernberekening van diepe neurale netwerken (DNN's) is vectormatrixvermenigvuldiging (VMM), die inherent afhankelijk is van het lezen van massale gewichten.Naarmate de modelgroottes groeien van megabytes naar gigabytes (10 MB–10 GB), stellen ze enorme eisen aan de opslag op de chip.
Training is ‘schrijfintensief’, terwijl inferentie ‘leesintensief’ is – beide draaien om gewichtsopslag (synaptisch geheugen).
Conclusie: AI is geen puur computerprobleem;het is in wezen een kwestie van ‘efficiëntie van opslag en gegevensverplaatsing’.
Traditionele GPU's/TPU's werken volgens een eenvoudig principe: berekeningen vinden plaats in verwerkingselementen (PE's), terwijl gegevens worden opgeslagen in SRAM/DRAM, wat leidt tot frequente gegevensverplaatsing en extreem lage efficiëntie.
Vergelijking van energie-efficiëntie:
Kern tegenstrijdigheid: Het probleem is niet het onvermogen om te rekenen, maar het onvermogen om gegevens efficiënt te verplaatsen.
CIM-architectuur slaat gewichten rechtstreeks op in geheugenarrays en voert berekeningen uit (parallelle VMM) binnen deze arrays, waardoor de noodzaak wordt geëlimineerd om gegevens tussen “opslag ↔ rekeneenheden” te verplaatsen.
Fundamentele verandering:
Dit is een paradigmaverschuiving op architectonisch niveau, niet alleen een simpele optimalisatie.
Om CIM te realiseren is een nieuwe “gewichtsdrager” nodig.De belangrijkste kandidaten zijn onder meer:
De essentiële mogelijkheid van deze apparaten is om gewichten weer te geven met behulp van continue geleiding (analoge multi-bit).
Het rapport benadrukt niet “of het mogelijk is”, maar de praktische hindernissen:
1. Trainingsuitdagingen (schrijfproces)
Vereisten: Lineariteit en symmetrie
Praktische problemen: Niet-lineariteit en asymmetrie leiden tot verminderde nauwkeurigheid
2. Inferentie-uitdagingen (leesstabiliteit)
Gewichten veranderen in de loop van de tijd, met problemen als:
- Thermische drift
- Leesinterferentie
- Retentieproblemen
3. Problemen op arrayniveau
- Variabiliteit tussen apparaten
- Afwegingen tussen precisie, ADC-prestaties en arraygrootte
Kernconclusie: Het probleem met analoog geheugen is niet ‘of precisie voldoende is’, maar ‘stabiliteit en beheersbaarheid’.
Toekomstige richtingen zijn onder meer:
Essentie: Dit is geen doorbraak op één punt, maar een volledige reconstructie.
Het knelpunt van AI is niet langer rekenkracht, maar ‘opslag en datastroom’.Analoge CIM transformeert ‘opslag’ in de nieuwe kern van computergebruik, waardoor de manier waarop AI-systemen vanaf de basis werken opnieuw wordt gedefinieerd.