論文の概要: Cost and accuracy of long-term memory in Distributed Multi-Agent Systems based on Large Language Models
- arxiv url: http://arxiv.org/abs/2601.07978v2
- Date: Wed, 14 Jan 2026 19:03:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 13:33:41.330634
- Title: Cost and accuracy of long-term memory in Distributed Multi-Agent Systems based on Large Language Models
- Title(参考訳): 大規模言語モデルに基づく分散マルチエージェントシステムにおける長期記憶のコストと精度
- Authors: Benedict Wolff, Jacopo Bennati,
- Abstract要約: 本研究では,ベクトルベースのメモリフレームワークであるmem0と,グラフベースの知識グラフであるGraphitiを比較した。
その結果、mem0はGraphitiの効率を著しく上回り、読み込み時間の短縮、リソース消費の低減、ネットワークオーバーヘッドの最小化を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Distributed multi-agent systems (DMAS) based on large language models (LLMs) enable collaborative intelligence while preserving data privacy. However, systematic evaluations of long-term memory under network constraints are limited. This study introduces a flexible testbed to compare mem0, a vector-based memory framework, and Graphiti, a graph-based knowledge graph, using the LoCoMo long-context benchmark. Experiments were conducted under unconstrained and constrained network conditions, measuring computational, financial, and accuracy metrics. Results indicate mem0 significantly outperforms Graphiti in efficiency, featuring faster loading times, lower resource consumption, and minimal network overhead. Crucially, accuracy differences were not statistically significant. Applying a statistical Pareto efficiency framework, mem0 is identified as the optimal choice, balancing cost and accuracy in DMAS.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づく分散マルチエージェントシステム(DMAS)は、データのプライバシを保持しながら協調的なインテリジェンスを実現する。
しかし,ネットワーク制約下での長期記憶の体系的評価は限られている。
本研究では,ベクトルベースのメモリフレームワークであるmem0とグラフベースの知識グラフであるGraphitiを,LoCoMo長文ベンチマークを用いて比較するための柔軟なテストベッドを提案する。
実験は制約のない、制約のないネットワーク条件下で行われ、計算量、財務量、精度を計測した。
その結果、mem0はGraphitiの効率を著しく上回り、読み込み時間の短縮、リソース消費の低減、ネットワークオーバーヘッドの最小化を実現している。
重要な点として、精度の違いは統計的に有意ではなかった。
統計的Pareto効率フレームワークを適用して、mem0はDMASのコストと精度のバランスをとる最適な選択であると見なされる。
関連論文リスト
- Scaling Graph Chain-of-Thought Reasoning: A Multi-Agent Framework with Efficient LLM Serving [38.059017394879284]
Graph Chain-of-Thought (Graph-CoT)は、グラフ構造化知識に対してステップバイステップの推論を行う大きな言語モデル(LLM)を可能にする。
既存のパイプラインは、低い正確性、過剰なトークン使用、高いレイテンシ、低いスループットに悩まされている。
GLMはマルチエージェントグラフ-CoTシステムであり、最適化されたLLMサービスアーキテクチャで設計されている。
論文 参考訳(メタデータ) (2025-11-03T14:42:53Z) - SPaRFT: Self-Paced Reinforcement Fine-Tuning for Large Language Models [51.74498855100541]
大規模言語モデル(LLM)は、強化学習(RL)による微調整時に強い推論能力を示す。
トレーニング対象のモデルの性能に基づいて,効率的な学習を可能にする自己評価学習フレームワークである textbfSPaRFT を提案する。
論文 参考訳(メタデータ) (2025-08-07T03:50:48Z) - Data Uniformity Improves Training Efficiency and More, with a Convergence Framework Beyond the NTK Regime [24.425649636862122]
より均一に分散したデータを選択することで、トレーニング効率が向上し、性能が向上することを示す。
具体的には、より均一な(バイアスのない)分布が、データポイント間の最小ペア距離を大きくすることを示す。
理論的には、ニューラルネットワークの近似誤差は、h_min$が増加するにつれて減少する。
論文 参考訳(メタデータ) (2025-06-30T17:58:30Z) - Kinetics: Rethinking Test-Time Scaling Laws [18.325591438335007]
Kinetics Scaling Lawは、テストタイムの計算が、より小さなしきい値以上のモデルで使用される場合、より効果的であることを示唆している。
そこで本研究では,スパークアテンションに着目した新しいスケーリングパラダイムを提案し,コストを削減し,より長い世代とより並列なサンプルを実現する。
論文 参考訳(メタデータ) (2025-06-05T17:59:24Z) - Accelerated Test-Time Scaling with Model-Free Speculative Sampling [58.69141724095398]
STAND(Stochastic Adaptive N-gram Drafting)は,新しいモデルフリーな投機的デコード手法である。
従来の自己回帰復号法と比較して,STANDは推論遅延を60~65%削減することを示した。
モデルフリーのアプローチとして、STANDは追加のトレーニングなしで既存の言語モデルに適用できる。
論文 参考訳(メタデータ) (2025-06-05T07:31:18Z) - Space-Efficient Private Estimation of Quantiles [2.934266338788597]
通信ネットワークやモノのインターネット(IoT)などから来るデータストリーム上の量子関数の推定は、重要なデータ処理アプリケーションの中心にある。
ストリームアイテムは非常に高いレートで届き、可能な限り早く処理され、破棄されなければならない。
textscDP-Frugal-1U-L, textscDP-Frugal-1U-G, textscDP-Frugal-1U-$rho$
論文 参考訳(メタデータ) (2025-02-27T15:47:15Z) - GraphMinNet: Learning Dependencies in Graphs with Light Complexity Minimal Architecture [12.267920696617017]
本稿では,最小限のGated Recurrent Unitの考え方をグラフ構造化データに一般化した新しいGNNアーキテクチャであるGraphMinNetを紹介する。
本手法は線形計算複雑性を伴う効率的なLRDモデリングを実現する。
その結果、10のデータセットのうち6つが優れた性能を示し、他のデータセットと競合する結果が得られた。
論文 参考訳(メタデータ) (2025-02-01T02:46:48Z) - GG-SSMs: Graph-Generating State Space Models [18.718025325906762]
State Space Models (SSM) は、コンピュータビジョンと時系列分析ドメインのシーケンシャルデータをモデリングするための強力なツールである。
グラフ生成状態空間モデル(GG-SSM)は,特徴関係に基づいたグラフを動的に構築することにより,これらの制約を克服する新しいフレームワークである。
我々は、イベントベースのアイトラッキング、画像ネット分類、光フロー推定、および6つの時系列データセットを含む11の多様なデータセット上でGG-SSMを検証する。
論文 参考訳(メタデータ) (2024-12-17T00:07:29Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Benchmarking Node Outlier Detection on Graphs [90.29966986023403]
グラフの外れ値検出は、多くのアプリケーションにおいて、新しいが重要な機械学習タスクである。
UNODと呼ばれるグラフに対して、最初の包括的教師なしノード外乱検出ベンチマークを示す。
論文 参考訳(メタデータ) (2022-06-21T01:46:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。