論文の概要: Fine-Grained AI Model Caching and Downloading With Coordinated Multipoint Broadcasting in Multi-Cell Edge Networks
- arxiv url: http://arxiv.org/abs/2509.19341v1
- Date: Tue, 16 Sep 2025 09:14:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.492896
- Title: Fine-Grained AI Model Caching and Downloading With Coordinated Multipoint Broadcasting in Multi-Cell Edge Networks
- Title(参考訳): マルチセルエッジネットワークにおける協調型マルチポイント放送による細粒度AIモデルキャッシングとダウンロード
- Authors: Yang Fu, Peng Qin, Yueyue Zhang, Yifei Wang,
- Abstract要約: 6Gネットワークは、エンドユーザの多様な推論要件を満たすために、オンデマンドAIモデルのダウンロードをサポートすることを想定している。
現代のAIモデルのかなりのサイズは、限られたストレージ容量下でのエッジキャッシングに重大な課題をもたらす。
本稿では,パラメータ再利用性を利用したきめ細かいAIモデルキャッシングとダウンロードシステムを提案する。
- 参考スコア(独自算出の注目度): 18.922211191002646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6G networks are envisioned to support on-demand AI model downloading to accommodate diverse inference requirements of end users. By proactively caching models at edge nodes, users can retrieve the requested models with low latency for on-device AI inference. However, the substantial size of contemporary AI models poses significant challenges for edge caching under limited storage capacity, as well as for the concurrent delivery of heterogeneous models over wireless channels. To address these challenges, we propose a fine-grained AI model caching and downloading system that exploits parameter reusability, stemming from the common practice of fine-tuning task-specific models from a shared pre-trained model with frozen parameters. This system selectively caches model parameter blocks (PBs) at edge nodes, eliminating redundant storage of reusable parameters across different cached models. Additionally, it incorporates coordinated multipoint (CoMP) broadcasting to simultaneously deliver reusable PBs to multiple users, thereby enhancing downlink spectrum utilization. Under this arrangement, we formulate a model downloading delay minimization problem to jointly optimize PB caching, migration (among edge nodes), and broadcasting beamforming. To tackle this intractable problem, we develop a distributed multi-agent learning framework that enables edge nodes to explicitly learn mutual influence among their actions, thereby facilitating cooperation. Furthermore, a data augmentation approach is proposed to adaptively generate synthetic training samples through a predictive model, boosting sample efficiency and accelerating policy learning. Both theoretical analysis and simulation experiments validate the superior convergence performance of the proposed learning framework.
- Abstract(参考訳): 6Gネットワークは、エンドユーザの多様な推論要件を満たすために、オンデマンドAIモデルのダウンロードをサポートすることを想定している。
エッジノードでモデルを積極的にキャッシュすることで、オンデバイスAI推論のために、要求されたモデルを低レイテンシで取得することができる。
しかし、現代のAIモデルのかなりのサイズは、限られたストレージ容量下でのエッジキャッシュや、無線チャネル上の異種モデルの同時配信に重大な課題をもたらす。
これらの課題に対処するために、凍結パラメータを持つ共有事前学習モデルからタスク固有モデルを微調整する一般的な実践から生まれた、パラメータ再利用性を利用したきめ細かいAIモデルキャッシングとダウンロードシステムを提案する。
このシステムは、エッジノードでモデルパラメータブロック(PB)を選択的にキャッシュし、異なるキャッシュモデルで再利用可能なパラメータを冗長に保存する。
さらに、コーディネートされたマルチポイント(CoMP)ブロードキャストを導入し、複数のユーザに対して再利用可能なPBを同時配信することで、ダウンリンクスペクトルの利用率の向上を実現している。
本研究では,PBキャッシング,マイグレーション(エッジノード),ブロードキャストビームフォーミングを共同で最適化するために,遅延最小化問題をダウンロードするモデルを定式化する。
この難解な問題に対処するために、エッジノードが行動間の相互影響を明示的に学習し、協調を容易にする分散マルチエージェント学習フレームワークを開発した。
さらに,データ拡張手法を提案し,予測モデルを用いて合成トレーニングサンプルを適応的に生成し,サンプル効率を向上し,政策学習を加速する。
理論的解析とシミュレーション実験の両方で、提案した学習フレームワークの優れた収束性能が検証された。
関連論文リスト
- PartialLoading: User Scheduling and Bandwidth Allocation for Parameter-sharing Edge Inference [32.58445942857626]
マルチユーザエッジ推論のためのパラメータ共有AIモデルローディングフレームワークを開発した。
タスクスループットを最大化するために、モデル間の共有パラメータブロックを利用する。
提案するフレームワークは,ユーザスケジューリングと比較して,期限下でのタスクスループットを著しく向上することを示す。
論文 参考訳(メタデータ) (2025-03-29T05:58:07Z) - TrimCaching: Parameter-sharing AI Model Caching in Wireless Edge Networks [36.39118138582416]
次世代のモバイルネットワークは、エンドユーザへの高速なAIモデルダウンロードを容易にすることが期待されている。
エッジサーバにモデルをキャッシュすることで、モバイルネットワークは、低レイテンシでエンドユーザにモデルを配信することができる。
我々はパラメータ共有モデルキャッシング(TrimCaching)と呼ばれる新しいモデル配置方式を開発する。
論文 参考訳(メタデータ) (2024-05-07T04:08:49Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - FedDD: Toward Communication-efficient Federated Learning with
Differential Parameter Dropout [13.056472977860976]
フェデレートラーニング(FL)では、頻繁にモデルパラメータを交換する必要があるため、長い通信遅延が発生する。
差分パラメータDropout (FedDD) を用いたフェデレーション学習手法を提案する。
FedDDは2つの主要なモジュールで構成されている。
論文 参考訳(メタデータ) (2023-08-31T16:10:22Z) - Rate Distortion Characteristic Modeling for Neural Image Compression [59.25700168404325]
エンドツーエンドの最適化機能は、ニューラルイメージ圧縮(NIC)の優れた損失圧縮性能を提供する。
異なるモデルは、R-D空間の異なる点に到達するために訓練される必要がある。
深層ネットワークと統計モデルを用いてNICのR-D挙動を記述するために,本質的な数学的関数の定式化に努めている。
論文 参考訳(メタデータ) (2021-06-24T12:23:05Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。