論文の概要: Graph-Memoized Reasoning: Foundations Structured Workflow Reuse in Intelligent Systems
- arxiv url: http://arxiv.org/abs/2511.15715v1
- Date: Tue, 11 Nov 2025 07:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.272881
- Title: Graph-Memoized Reasoning: Foundations Structured Workflow Reuse in Intelligent Systems
- Title(参考訳): Graph-Memoized Reasoning: インテリジェントシステムにおける構造化ワークフロー再利用の基礎
- Authors: Yash Raj Singh,
- Abstract要約: グラフ構造化メモリとして、推論を表現、保存、再利用するための正式なフレームワークであるGraph-Memoized Reasoningを導入する。
過去の決定グラフを符号化し、構造的および意味的類似性を通してそれらを検索することにより、新しい推論タスクにおける部分グラフの合成再利用を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern large language model-based reasoning systems frequently recompute similar reasoning steps across tasks, wasting computational resources, inflating inference latency, and limiting reproducibility. These inefficiencies underscore the need for persistent reasoning mechanisms that can recall and reuse prior computational traces. We introduce Graph-Memoized Reasoning, a formal framework for representing, storing, and reusing reasoning workflows as graph-structured memory. By encoding past decision graphs and retrieving them through structural and semantic similarity, our approach enables compositional reuse of subgraphs across new reasoning tasks. We formulate an optimization objective that minimizes total reasoning cost regularized by inconsistency between stored and generated workflows, providing a theoretical foundation for efficiency-consistency trade-offs in intelligent systems. We outline a conceptual evaluation protocol aligned with the proposed optimization objective. This framework establishes the groundwork for interpretable, cost-efficient, and self-improving reasoning architectures, offering a step toward persistent memory in large-scale agentic systems.
- Abstract(参考訳): 現代の大規模言語モデルに基づく推論システムは、タスク間で同様の推論ステップを頻繁に再計算し、計算資源を浪費し、推論遅延を膨らませ、再現性を制限する。
これらの非効率性は、以前の計算トレースをリコールし再利用できる永続的推論機構の必要性を浮き彫りにする。
グラフ構造化メモリとして推論ワークフローを表現、保存、再利用するための正式なフレームワークであるGraph-Memoized Reasoningを導入する。
過去の決定グラフを符号化し、構造的および意味的類似性を通してそれらを検索することにより、新しい推論タスクにおける部分グラフの合成再利用を可能にする。
我々は、記憶されたワークフローと生成されたワークフローの整合性によって正規化された総推論コストを最小化する最適化目標を定式化し、インテリジェントシステムにおける効率-整合性トレードオフの理論的基盤を提供する。
本稿では,提案した最適化目標に沿った概念評価プロトコルについて概説する。
このフレームワークは、大規模エージェントシステムにおける永続的メモリへのステップを提供する、解釈可能、コスト効率、自己改善推論アーキテクチャの基礎を確立する。
関連論文リスト
- PISA: A Pragmatic Psych-Inspired Unified Memory System for Enhanced AI Agency [50.712873697511206]
既存の作業は、多種多様なタスクへの適応性に欠けることが多く、AIエージェントメモリの構成的およびタスク指向の役割を見落としている。
PISAは,メモリを構築的かつ適応的なプロセスとして扱う,実践的でサイコにインスパイアされた統合メモリシステムである。
既存のLOCOMOベンチマークと新たに提案したデータ解析タスクのAggQAベンチマークに基づいて,PISAが適応性と長期的知識保持を大幅に向上させることで,新たな最先端技術を設定することを確認した。
論文 参考訳(メタデータ) (2025-10-12T10:34:35Z) - Adaptive Test-Time Reasoning via Reward-Guided Dual-Phase Search [62.1546099504045]
本稿では、推論を計画と実行に分離する二相テストタイムスケーリングフレームワークを提案する。
具体的には、推論軌跡を分解し、各フェーズの報酬モデルを構築し、探索者が個別に計画と実行を探索、実行できるようにする。
数学的推論とコード生成ベンチマークの両方の実験により、我々の手法は計算の冗長性を低減しつつ、常に精度を向上することを示した。
論文 参考訳(メタデータ) (2025-09-29T19:27:23Z) - Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - A Pre-training Framework for Relational Data with Information-theoretic Principles [57.93973948947743]
本稿では,リレーショナルグラフ上の集合に基づくアグリゲーションを通じて,監視信号を構成する新しい事前学習フレームワークであるTask Vector Estimation (TVE)を紹介する。
TVEは従来のトレーニング前のベースラインを一貫して上回っている。
本研究は,関係データベース上での予測モデルの設計原則として,タスクの不均一性と時間構造を符号化する事前学習目的を提唱する。
論文 参考訳(メタデータ) (2025-07-14T00:17:21Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - Quantifying Memory Utilization with Effective State-Size [73.52115209375343]
「我々は、テキスト・メモリ利用の尺度を策定する。」
この計量は、textitinput-invariant および textitinput-variant linear operator を持つシステムの基本的なクラスに適合する。
論文 参考訳(メタデータ) (2025-04-28T08:12:30Z) - Autonomous Structural Memory Manipulation for Large Language Models Using Hierarchical Embedding Augmentation [0.0]
本研究では,マルチレベルセマンティック構造を通じてトークンの表現を再定義する手段として,階層的な埋め込み拡張を導入する。
その結果、より長い入力シーケンスに対して処理オーバーヘッドが大幅に削減され、計算効率が大幅に向上した。
トークン表現とメモリ構成を動的に調整する能力は、様々な予測不可能な入力条件下でモデルの堅牢性に寄与した。
論文 参考訳(メタデータ) (2025-01-23T22:20:36Z) - GraphIC: A Graph-Based In-Context Example Retrieval Model for Multi-Step Reasoning [22.115256310400817]
In-context Learning (ICL)は、実例を取り入れた大規模言語モデル(LLM)を強化する。
現在のメソッドは通常、テキスト埋め込みを使用して意味的類似度を測定するが、これは多段階推論タスクにバイアスをもたらすことが多い。
In-context の例検索に推論認識表現と特殊類似度指標を利用するグラフベースの検索モデル GraphIC を提案する。
論文 参考訳(メタデータ) (2024-10-03T04:33:02Z) - Unsupervised Learning for Combinatorial Optimization with Principled
Objective Relaxation [19.582494782591386]
本研究は,最適化(CO)問題に対する教師なし学習フレームワークを提案する。
我々の重要な貢献は、緩和された目的がエントリーワイドな凹凸を満たすならば、低い最適化損失は最終積分解の品質を保証するという観察である。
特に、この観察は、対象が明示的に与えられていないアプリケーションにおいて、事前にモデル化される必要がある場合に、対象モデルの設計を導くことができる。
論文 参考訳(メタデータ) (2022-07-13T06:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。