論文の概要: DisCEdge: Distributed Context Management for Large Language Models at the Edge
- arxiv url: http://arxiv.org/abs/2511.22599v1
- Date: Thu, 27 Nov 2025 16:27:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.646521
- Title: DisCEdge: Distributed Context Management for Large Language Models at the Edge
- Title(参考訳): DisCEdge: エッジにおける大規模言語モデルのための分散コンテキスト管理
- Authors: Mohammadreza Malekabbasi, Minghe Wang, David Bermbach,
- Abstract要約: DisCEdgeは、エッジノード間のトークン化形式でユーザコンテキストを格納し、複製する分散コンテキスト管理システムである。
応答時間の平均値が14.46%向上し、ノード間同期のオーバーヘッドが生のテキストベースシステムと比較して最大15%低下することを示す。
- 参考スコア(独自算出の注目度): 0.11055490050685318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deploying Large Language Model (LLM) services at the edge benefits latency-sensitive and privacy-aware applications. However, the stateless nature of LLMs makes managing user context (e.g., sessions, preferences) across geo-distributed edge nodes challenging. Existing solutions, such as client-side context storage, often introduce network latency and bandwidth overhead, undermining the advantages of edge deployment. We propose DisCEdge, a distributed context management system that stores and replicates user context in tokenized form across edge nodes. By maintaining context as token sequences rather than raw text, our system avoids redundant computation and enables efficient data replication. We implement and evaluate an open-source prototype in a realistic edge environment with commodity hardware. We show DisCEdge improves median response times by up to 14.46% and lowers median inter-node synchronization overhead by up to 15% compared to a raw-text-based system. It also reduces client request sizes by a median of 90% compared to client-side context management, while guaranteeing data consistency.
- Abstract(参考訳): エッジに大規模言語モデル(LLM)サービスをデプロイすることは、レイテンシに敏感でプライバシに配慮したアプリケーションにメリットがある。
しかし、LLMのステートレスな性質は、地理的に分散したエッジノード間でのユーザコンテキスト(セッション、好みなど)の管理を困難にしている。
クライアントサイドのコンテキストストレージのような既存のソリューションは、しばしばネットワークのレイテンシと帯域幅のオーバーヘッドを導入し、エッジデプロイメントの利点を損なう。
本研究では,エッジノード間のトークン化形式でユーザコンテキストを格納・複製する分散コンテキスト管理システムであるDisCEdgeを提案する。
テキストではなく、コンテキストをトークンシーケンスとして保持することにより、冗長な計算を回避し、効率的なデータ複製を可能にする。
我々は,コモディティハードウェアを用いて,現実的なエッジ環境におけるオープンソースプロトタイプの実装と評価を行う。
DisCEdgeは、14.46%まで中央応答時間を改善し、ノード間同期のオーバーヘッドを生のテキストベースシステムと比較して最大15%低減する。
また、データ一貫性を保証しながら、クライアント側のコンテキスト管理と比較して、クライアント要求のサイズを90%の中央値に削減します。
関連論文リスト
- ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - A Co-Training Semi-Supervised Framework Using Faster R-CNN and YOLO Networks for Object Detection in Densely Packed Retail Images [1.0896567381206714]
本研究では,密集した小売環境におけるオブジェクト検出のための半教師付き協調学習フレームワークを提案する。
このフレームワークは、正確なローカライゼーションのためにFaster R-CNNと、グローバルコンテキストのためのYOLOを組み合わせたものだ。
XGBoost、Random Forest、SVMのアンサンブルを採用し、多様な特徴表現を高い堅牢性に活用している。
論文 参考訳(メタデータ) (2025-09-11T13:40:43Z) - Edge-Assisted Collaborative Fine-Tuning for Multi-User Personalized Artificial Intelligence Generated Content (AIGC) [38.59865959433328]
クラウドベースのソリューションは計算を助けるが、プライバシのリスク、パーソナライズ効率、通信コストに対処するのに不足することが多い。
本稿では,クラスタを意識した新しい階層型統合フレームワークを提案する。
このフレームワークは,スケーラブルなマルチユーザパーソナライズAIGCサービスの実用性を維持しつつ,収束の加速を実現する。
論文 参考訳(メタデータ) (2025-08-06T06:07:24Z) - ChainStream: An LLM-based Framework for Unified Synthetic Sensing [20.589289717423597]
我々は、自然言語を統合インターフェースとして使用し、個人データを処理し、ユーザコンテキストを感知することを提案する。
私たちの仕事は、大きな言語モデル(LLM)や他の生成モデルにインスパイアされています。
自然言語に基づくコンテキストセンシングの性能を評価するために,133のコンテキストセンシングタスクを含むベンチマークを作成する。
論文 参考訳(メタデータ) (2024-12-13T08:25:26Z) - Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Timely Asynchronous Hierarchical Federated Learning: Age of Convergence [59.96266198512243]
クライアント-エッジ-クラウドフレームワークを用いた非同期階層型フェデレーション学習環境について検討する。
クライアントはトレーニングされたパラメータをエッジサーバと交換し、ローカルに集約されたモデルを更新する。
各クライアントの目標は、クライアントのタイムラインを維持しながら、グローバルモデルに収束することだ。
論文 参考訳(メタデータ) (2023-06-21T17:39:16Z) - An Efficient Person Clustering Algorithm for Open Checkout-free
Groceries [13.666449413021464]
オープンチェックアウトフリー食料品を対象とした効率的かつ効果的な人選クラスタリング手法を提案する。
具体的には,大規模データストリームと連続データストリームの関係をローカライズするために,まずクラウドサブグラフ(CSG)を提案する。
本手法がダイナミックで見えない人の流れに適応することを保証するため,簡単なNearest Neighbor(NN)戦略でグラフ畳み込みネットワーク(GCN)を提案する。
論文 参考訳(メタデータ) (2022-08-05T03:48:07Z) - DP-NormFedAvg: Normalizing Client Updates for Privacy-Preserving
Federated Learning [48.064786028195506]
我々は,クライアントに対して,大局的な情報の観点から,テキスト単位のみを定量化したバージョンを送信させることを提案する。
また、単位ノルムの新しい微分プライベート量子化機構であるQTDLを導入する。
論文 参考訳(メタデータ) (2021-06-13T21:23:46Z) - Faster Non-Convex Federated Learning via Global and Local Momentum [57.52663209739171]
textttFedGLOMOは最初の(一階)FLtexttFedGLOMOアルゴリズムです。
クライアントとサーバ間の通信においても,我々のアルゴリズムは確実に最適である。
論文 参考訳(メタデータ) (2020-12-07T21:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。