論文の概要: Efficient Multiuser AI Downloading via Reusable Knowledge Broadcasting
- arxiv url: http://arxiv.org/abs/2307.15316v1
- Date: Fri, 28 Jul 2023 05:30:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-31 13:43:36.233071
- Title: Efficient Multiuser AI Downloading via Reusable Knowledge Broadcasting
- Title(参考訳): 再利用可能な知識放送による効率的なマルチユーザAIダウンロード
- Authors: Hai Wu, Qunsong Zeng, and Kaibin Huang
- Abstract要約: エッジデバイス上でリアルタイム適応人工知能を実現するための重要なユースケースとして、In-situモデルダウンロードが登場した。
ボトルネックを克服するために,モデル放送と組立(MBA)の枠組みを提案する。
大規模な実験では、従来のモデルダウンロードと比較して、提案されたMBAによって達成されたダウンロード遅延が大幅に削減された。
- 参考スコア(独自算出の注目度): 36.95383755941367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For the 6G mobile networks, in-situ model downloading has emerged as an
important use case to enable real-time adaptive artificial intelligence on edge
devices. However, the simultaneous downloading of diverse and high-dimensional
models to multiple devices over wireless links presents a significant
communication bottleneck. To overcome the bottleneck, we propose the framework
of model broadcasting and assembling (MBA), which represents the first attempt
on leveraging reusable knowledge, referring to shared parameters among tasks,
to enable parameter broadcasting to reduce communication overhead. The MBA
framework comprises two key components. The first, the MBA protocol, defines
the system operations including parameter selection from a model library, power
control for broadcasting, and model assembling at devices. The second component
is the joint design of parameter-selection-and-power-control (PS-PC), which
provides guarantees on devices' model performance and minimizes the downloading
latency. The corresponding optimization problem is simplified by decomposition
into the sequential PS and PC sub-problems without compromising its optimality.
The PS sub-problem is solved efficiently by designing two efficient algorithms.
On one hand, the low-complexity algorithm of greedy parameter selection
features the construction of candidate model sets and a selection metric, both
of which are designed under the criterion of maximum reusable knowledge among
tasks. On the other hand, the optimal tree-search algorithm gains its
efficiency via the proposed construction of a compact binary tree pruned using
model architecture constraints and an intelligent branch-and-bound search.
Given optimal PS, the optimal PC policy is derived in closed form. Extensive
experiments demonstrate the substantial reduction in downloading latency
achieved by the proposed MBA compared to traditional model downloading.
- Abstract(参考訳): 6gモバイルネットワークでは,エッジデバイス上でリアルタイム適応型人工知能を実現する上で,その場モデルダウンロードが重要なユースケースとして浮上している。
しかし、無線リンクを介して複数のデバイスに多様で高次元のモデルの同時ダウンロードは、重要な通信ボトルネックをもたらす。
このボトルネックを克服するために,タスク間の共有パラメータを参照して再利用可能な知識を活用するための最初の試みとして,モデル放送と組立(MBA)の枠組みを提案する。
MBAフレームワークは2つの重要なコンポーネントから構成される。
第一のMBAプロトコルは、モデルライブラリからのパラメータ選択、ブロードキャストのための電力制御、デバイスでのモデル組み立てを含むシステム操作を定義する。
第2のコンポーネントはパラメータ選択電力制御(PS-PC)の共同設計であり、デバイスのモデル性能の保証とダウンロード遅延の最小化を提供する。
対応する最適化問題は、その最適性を損なうことなくシーケンシャルpsおよびpcサブプロブレムに分解することにより単純化される。
PSサブプロブレムは、2つの効率的なアルゴリズムを設計することで効率よく解決される。
一方、欲求パラメータ選択の低複雑さアルゴリズムは、タスク間の最大再利用可能な知識の基準の下で設計される候補モデルセットと選択指標の構成を特徴とする。
一方、最適木探索アルゴリズムは、モデルアーキテクチャの制約とインテリジェントな分岐・境界探索を用いてprunedしたコンパクトな二分木の構築により、その効率を高める。
最適PSが与えられたとき、最適PCポリシーは閉じた形で導出される。
大規模な実験では、従来のモデルダウンロードと比較して、提案されたMBAによって達成されたダウンロード遅延が大幅に削減された。
関連論文リスト
- Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Communication-Computation Efficient Device-Edge Co-Inference via AutoML [4.06604174802643]
デバイスエッジのコ推論は、リソース制約のあるモバイルデバイスとエッジサーバの間のディープニューラルネットワークを分割する。
オンデバイスモデルスパーシリティレベルと中間特徴圧縮比は、ワークロードと通信オーバーヘッドに直接的な影響を与える。
深部強化学習(DRL)に基づく新しい自動機械学習(AutoML)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-30T06:36:30Z) - Edge Federated Learning Via Unit-Modulus Over-The-Air Computation
(Extended Version) [64.76619508293966]
本稿では,効率の良いエッジフェデレーション学習を実現するために,UM-AirCompフレームワークを提案する。
ローカルモデルパラメータを同時にアップロードし、アナログビームフォーミングを通じてグローバルモデルパラメータを更新する。
車両間自動運転シミュレーションプラットフォームにおけるUM-AirCompの実装を実演する。
論文 参考訳(メタデータ) (2021-01-28T15:10:22Z) - Federated Learning via Intelligent Reflecting Surface [30.935389187215474]
オーバー・ザ・エア・コンピューティング・アルゴリズム(FL)は,複数のアクセスチャネルの波形重畳特性を利用して高速なモデルアグリゲーションを実現することができる。
本稿では,AirCompベースのFLのための高速かつ信頼性の高いモデルアグリゲーションを実現するための2段階最適化フレームワークを提案する。
シミュレーションの結果,提案するフレームワークとIRSの展開により,ベースラインアルゴリズムよりもトレーニング損失が低く,FL予測精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-11-10T11:29:57Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z) - Joint Parameter-and-Bandwidth Allocation for Improving the Efficiency of
Partitioned Edge Learning [73.82875010696849]
機械学習アルゴリズムは、人工知能(AI)モデルをトレーニングするために、ネットワークエッジにデプロイされる。
本稿では,パラメータ(計算負荷)割り当てと帯域幅割り当ての新しい共同設計に焦点を当てる。
論文 参考訳(メタデータ) (2020-03-10T05:52:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。