論文の概要: Memory as Resonance: A Biomimetic Architecture for Infinite Context Memory on Ergodic Phonetic Manifolds
- arxiv url: http://arxiv.org/abs/2512.20245v1
- Date: Tue, 23 Dec 2025 10:55:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.835629
- Title: Memory as Resonance: A Biomimetic Architecture for Infinite Context Memory on Ergodic Phonetic Manifolds
- Title(参考訳): 共振器としての記憶:エルゴード音階上の無限文脈記憶のための生体模倣的アーキテクチャ
- Authors: Tarik Houichime, Abdelghani Souhar, Younes El Amrani,
- Abstract要約: 本稿では,言語をエルゴード多様体上の連続経路としてエンコードするニューロシンボリックアーキテクチャであるPhontic Trajectory Memoryを紹介する。
我々は,検索が共鳴の過程となり,最大92%の事実精度を確保することを実証した。
我々の結果は、無限のコンテキストは無限のシリコンを必要としないことを示唆している。記憶されるデータではなく、保存されていない物理信号に作用する再構成プロセスとしてメモリを扱う必要がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The memory of contemporary Large Language Models is bound by a physical paradox: as they learn, they fill up. The linear accumulation (O(N)) of Key-Value states treats context as a warehouse of static artifacts, eventually forcing a destructive choice between amnesia and latency. We challenge this discrete orthodoxy, proposing that long-term memory is not the storage of items, but the persistence of a trajectory. We introduce Phonetic Trajectory Memory (PTM), a neuro-symbolic architecture that encodes language not as a sequence of tensors, but as a continuous path on an ergodic manifold governed by irrational rotation matrices. By decoupling the navigation (an invariant O(1) geometric signal) from the reconstruction (a probabilistic generative act), PTM achieves a compression magnitude of greater than 3,000x relative to dense caches. We demonstrate that retrieval becomes a process of resonance: the phonetic trace stabilizes the model against hallucination via "Signal Consensus" mechanism, securing up to approximately 92% factual accuracy. While this aggressive abstraction alters generative texture, it unlocks immediate access latency (approximately 34ms) independent of depth. Our results suggest that infinite context does not require infinite silicon; it requires treating memory not as data to be stored, but as a reconstructive process acting on a conserved, undying physical signal.
- Abstract(参考訳): 現代の大規模言語モデルの記憶は、物理的パラドックスによって束縛されている。
Key-Value状態の線形蓄積(O(N))は、コンテキストを静的アーティファクトの倉庫として扱い、最終的にアムネシアとレイテンシの破壊的な選択を強制する。
我々は、この離散正統性に挑戦し、長期記憶はアイテムの記憶ではなく、軌道の持続性であると主張する。
本稿では,言語をテンソルの列ではなく,不合理回転行列によって支配されるエルゴード多様体上の連続経路として符号化する,ニューロシンボリックアーキテクチャであるPTMを紹介する。
再構成(確率的生成法)からナビゲーション(不変なO(1)幾何信号)を分離することにより、PTMは密度の高いキャッシュに対して3000倍以上の圧縮等級を達成する。
音声の痕跡は「手話合意」機構を介して幻覚に対するモデルを安定化させ、約92%の事実精度を確保する。
このアグレッシブな抽象化は生成テクスチャを変更するが、深さに依存しない即時アクセスレイテンシ(約34ms)を解放する。
我々の結果は、無限のコンテキストは無限のシリコンを必要としないことを示唆している。記憶されるデータではなく、保存されていない物理信号に作用する再構成プロセスとしてメモリを扱う必要がある。
関連論文リスト
- Agentic Learner with Grow-and-Refine Multimodal Semantic Memory [50.81667005063605]
ViLoMemは、コンパクトなスキーマベースのメモリを構築するデュアルストリームメモリフレームワークである。
視覚的障害パターンと論理的推論エラーを符号化し、MLLMが成功し失敗した経験から学ぶことを可能にする。
論文 参考訳(メタデータ) (2025-11-26T18:55:08Z) - Mnemosyne: An Unsupervised, Human-Inspired Long-Term Memory Architecture for Edge-Based LLMs [1.2582867366903179]
我々は、エッジベース大規模言語モデル(LLM)のための、教師なし、人間にインスパイアされた長期記憶アーキテクチャであるMnemosyneを紹介する。
提案手法では, グラフ構造記憶, モジュール状物質および冗長性フィルタ, メモリコミットとプルーニング機構, 時間減衰とリフレッシュ処理による確率的リコールを用いた。
Mnemosyneは、反復的で意味的に類似しているが、時間的に異なる会話は、ナイーブ検索によって制限される縦型医療アシスタントでの使用を目的として設計されている。
論文 参考訳(メタデータ) (2025-10-07T03:32:53Z) - Wave-Based Semantic Memory with Resonance-Based Retrieval: A Phase-Aware Alternative to Vector Embedding Stores [51.56484100374058]
本稿では,波動パターン$psi(x) = A(x) eiphi(x)$として知識をモデル化し,共振に基づく干渉によってそれを検索する新しいフレームワークを提案する。
このアプローチは振幅情報と位相情報の両方を保存し、より表現的かつ堅牢な意味的類似性を実現する。
論文 参考訳(メタデータ) (2025-08-21T10:13:24Z) - Memory as Structured Trajectories: Persistent Homology and Contextual Sheaves [5.234742752529437]
本稿では,メモリをスパースなトポロジカルなアトラクタの集合として形式化するデルタホモロジーのアナロジーを導入する。
ディラックデルタのような記憶トレースは、認知状態の潜在多様体上の非自明なホモロジー生成器と同一視される。
我々はこれらのデルタホモロジー生成体を低エントロピー量変数と解釈し、高エントロピー文脈変数は濾過、コホモロジークラス、あるいは層として二重に表現する。
論文 参考訳(メタデータ) (2025-08-01T23:03:13Z) - Higher-Order Kuramoto Oscillator Network for Dense Associative Memory [0.0]
本研究では,高次結合により,メモリ容量とシステムサイズとの超線形スケーリングを実現することを示す。
これらの結果は、現在のホプフィールド記憶と倉本同期を橋渡しする。
論文 参考訳(メタデータ) (2025-07-29T16:35:52Z) - B'MOJO: Hybrid State Space Realizations of Foundation Models with Eidetic and Fading Memory [91.81390121042192]
我々はB'MOJOと呼ばれるモデル群を開発し、構成可能なモジュール内で理想的メモリと暗黙的メモリをシームレスに結合する。
B'MOJOのイデオティックメモリとフェードメモリを変調する能力は、32Kトークンまでテストされた長いシーケンスの推論をより良くする。
論文 参考訳(メタデータ) (2024-07-08T18:41:01Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - Memory Efficient Neural Processes via Constant Memory Attention Block [55.82269384896986]
CMANP(Constant Memory Attentive Neural Processs)は、NPの変種である。
我々は,CMANPが従来の手法よりもはるかにメモリ効率が良く,NPベンチマークで最先端の結果が得られることを示した。
論文 参考訳(メタデータ) (2023-05-23T23:10:19Z) - What is Memory? A Homological Perspective [6.0044467881527614]
メモリのデルタホモロジーモデルを導入し、サイクル閉鎖からリコール、学習、予測を発生させる。
ディラックのようなメモリトレースは、スパースで既約の誘引子を表す非自明なホモロジージェネレータに対応する。
我々は、このメカニズムを、高エントロピー文脈変数と低エントロピー内容変数との結合不確実性を最小化する、コンテキスト-コンテンツ不確実性原理(CCUP)によって定式化する。
論文 参考訳(メタデータ) (2023-03-07T19:47:01Z) - Kanerva++: extending The Kanerva Machine with differentiable, locally
block allocated latent memory [75.65949969000596]
エピソディックメモリとセマンティックメモリは、人間のメモリモデルの重要なコンポーネントです。
我々は、エピソードメモリとセマンティックメモリのギャップを埋める新しい原理ベイズメモリ割り当てスキームを開発しました。
この割り当て方式がメモリ条件画像生成の性能を向上させることを実証する。
論文 参考訳(メタデータ) (2021-02-20T18:40:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。