論文の概要: LLM-Empowered Cooperative Content Caching in Vehicular Fog Caching-Assisted Platoon Networks
- arxiv url: http://arxiv.org/abs/2602.04471v1
- Date: Wed, 04 Feb 2026 11:59:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.514084
- Title: LLM-Empowered Cooperative Content Caching in Vehicular Fog Caching-Assisted Platoon Networks
- Title(参考訳): LLM-Empowered Cooperative Content Caching in Vehicular Fog Caching-Assisted Platoon Networks
- Authors: Bowen Tan, Qiong Wu, Pingyi Fan, Kezhi Wang, Nan Cheng, Wen Chen,
- Abstract要約: 本稿では,Vehicular Fog Caching支援プラトンのための新しい3層コンテンツキャッシュアーキテクチャを提案する。
このシステムは、ローカルな小隊車両、ダイナミックなVFCクラスタ、およびクラウドサーバーをまたいだストレージを戦略的に調整し、コンテンツ検索のレイテンシを最小限にする。
- 参考スコア(独自算出の注目度): 42.6133001721987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This letter proposes a novel three-tier content caching architecture for Vehicular Fog Caching (VFC)-assisted platoon, where the VFC is formed by the vehicles driving near the platoon. The system strategically coordinates storage across local platoon vehicles, dynamic VFC clusters, and cloud server (CS) to minimize content retrieval latency. To efficiently manage distributed storage, we integrate large language models (LLMs) for real-time and intelligent caching decisions. The proposed approach leverages LLMs' ability to process heterogeneous information, including user profiles, historical data, content characteristics, and dynamic system states. Through a designed prompting framework encoding task objectives and caching constraints, the LLMs formulate caching as a decision-making task, and our hierarchical deterministic caching mapping strategy enables adaptive requests prediction and precise content placement across three tiers without frequent retraining. Simulation results demonstrate the advantages of our proposed caching scheme.
- Abstract(参考訳): 本稿では,VFCを補助する小隊に対して,小隊付近を走行する車両によってVFCが形成される3層型コンテンツキャッシュアーキテクチャを提案する。
このシステムは、ローカルプラトン車両、動的VFCクラスタ、およびクラウドサーバ(CS)間でストレージを戦略的に調整し、コンテンツ検索のレイテンシを最小限にする。
分散ストレージを効率的に管理するために,我々は大規模言語モデル(LLM)を統合し,リアルタイムおよびインテリジェントなキャッシュ決定を行う。
提案手法は,ユーザプロファイル,履歴データ,コンテンツ特性,動的システム状態などの異種情報処理能力を活用する。
課題目標とキャッシュ制約を符号化する設計されたプロンプトフレームワークを通じて、LCMは決定タスクとしてキャッシュを定式化し、階層的決定論的キャッシュマッピング戦略により、頻繁な再トレーニングなしに3層にわたる適応的な要求予測と正確なコンテンツ配置を可能にする。
シミュレーションの結果,提案手法の利点が示された。
関連論文リスト
- RCR-Router: Efficient Role-Aware Context Routing for Multi-Agent LLM Systems with Structured Memory [57.449129198822476]
RCRは、マルチエージェント大言語モデル(LLM)システムのためのロールアウェアコンテキストルーティングフレームワークである。
役割とタスクステージに基づいて、各エージェントに対して意味的に関連するメモリサブセットを動的に選択する。
軽量スコアリングポリシは、メモリ選択をガイドし、エージェント出力を共有メモリストアに統合する。
論文 参考訳(メタデータ) (2025-08-06T21:59:34Z) - InstCache: A Predictive Cache for LLM Serving [6.076957323090607]
キャッシング技術は、大規模言語モデル推論エンジンのパフォーマンスを最適化する機会を提供する。
命令の内容と長さのばらつきが大きいため、同じ命令が短時間のウィンドウ内で再帰することは稀である。
LLMサービスシステムの予測キャッシュ機構であるInstCacheを提案する。
論文 参考訳(メタデータ) (2024-11-21T03:52:41Z) - Efficient Inference of Vision Instruction-Following Models with Elastic Cache [76.44955111634545]
我々は,命令追従型大規模視覚言語モデルの効率的なデプロイのための新しい戦略であるElastic Cacheを紹介する。
本稿では,冗長キャッシュを具現化する重要なキャッシュマージ戦略を提案する。
命令符号化では,キャッシュの重要性を評価するために周波数を利用する。
様々なLVLMの結果は、Elastic Cacheが効率を向上するだけでなく、言語生成における既存のプルーニングメソッドよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-25T15:29:05Z) - Attention-Enhanced Prioritized Proximal Policy Optimization for Adaptive Edge Caching [4.2579244769567675]
本稿では,PPO(Proximal Policy Optimization)に基づくキャッシュ方式を提案する。
本手法は近年のDeep Reinforcement Learning-based Techniqueより優れている。
論文 参考訳(メタデータ) (2024-02-08T17:17:46Z) - Cocktail Edge Caching: Ride Dynamic Trends of Content Popularity with
Ensemble Learning [10.930268276150262]
エッジキャッシングは、新興のコンテンツ豊富なアプリケーションを促進する上で重要な役割を果たす。
それは、特に、非常にダイナミックなコンテンツ人気と異種キャッシュ計算など、多くの新しい課題に直面しています。
アンサンブル学習による動的人気と不均一性に対処するCocktail Edge Cachingを提案する。
論文 参考訳(メタデータ) (2021-01-14T21:59:04Z) - Caching Placement and Resource Allocation for Cache-Enabling UAV NOMA
Networks [87.6031308969681]
本稿では,非直交多重アクセス(NOMA)をサポートした大規模アクセス機能を有する無人航空機(UAV)セルネットワークについて検討する。
コンテンツ配信遅延最小化のための長期キャッシュ配置と資源配分最適化問題をマルコフ決定プロセス(MDP)として定式化する。
そこで我々は,UAVがemphsoft $varepsilon$-greedy戦略を用いて行動の学習と選択を行い,行動と状態の最適な一致を探索する,Qラーニングに基づくキャッシュ配置とリソース割り当てアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-12T08:33:51Z) - Reinforcement Learning for Caching with Space-Time Popularity Dynamics [61.55827760294755]
キャッシングは次世代ネットワークにおいて重要な役割を果たすと想定されている。
コンテンツをインテリジェントにプリフェッチし、保存するためには、キャッシュノードは、何といつキャッシュするかを学ばなければならない。
本章では、近似キャッシングポリシー設計のための多目的強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-19T01:23:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。