論文の概要: Dora: QoE-Aware Hybrid Parallelism for Distributed Edge AI
- arxiv url: http://arxiv.org/abs/2512.10990v1
- Date: Tue, 09 Dec 2025 03:19:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.50508
- Title: Dora: QoE-Aware Hybrid Parallelism for Distributed Edge AI
- Title(参考訳): Dora: 分散エッジAIのためのQoE対応ハイブリッド並列処理
- Authors: Jianli Jin, Ziyang Lin, Qianli Dong, Yi Chen, Jayanth Srinivasa, Myungjin Lee, Zhaowei Tan, Fan Lai,
- Abstract要約: 本稿では,分散エッジAIトレーニングと推論におけるハイブリッド計算を意識したQoEフレームワークであるDoraを紹介する。
Doraは実行速度を1.1-6.3倍に向上し、エネルギー消費を21~82パーセント削減する。
- 参考スコア(独自算出の注目度): 18.668516218320736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the proliferation of edge AI applications, satisfying user quality of experience (QoE) requirements, such as model inference latency, has become a first class objective, as these models operate in resource constrained settings and directly interact with users. Yet, modern AI models routinely exceed the resource capacity of individual devices, necessitating distributed execution across heterogeneous devices over variable and contention prone networks. Existing planners for hybrid (e.g., data and pipeline) parallelism largely optimize for throughput or device utilization, overlooking QoE, leading to severe resource inefficiency (e.g., unnecessary energy drain) or QoE violations under runtime dynamics. We present Dora, a framework for QoE aware hybrid parallelism in distributed edge AI training and inference. Dora jointly optimizes heterogeneous computation, contention prone networks, and multi dimensional QoE objectives via three key mechanisms: (i) a heterogeneity aware model partitioner that determines and assigns model partitions across devices, forming a compact set of QoE compliant plans; (ii) a contention aware network scheduler that further refines these candidate plans by maximizing compute communication overlap; and (iii) a runtime adapter that adaptively composes multiple plans to maximize global efficiency while respecting overall QoEs. Across representative edge deployments, including smart homes, traffic analytics, and small edge clusters, Dora achieves 1.1--6.3 times faster execution and, alternatively, reduces energy consumption by 21--82 percent, all while maintaining QoE under runtime dynamics.
- Abstract(参考訳): エッジAIアプリケーションの普及に伴い、モデル推論レイテンシなどのユーザ品質の要件(QoE)を満たすことが、これらのモデルがリソース制約された設定で動作し、ユーザと直接対話する上で、第一級の目標となっている。
しかし、現代のAIモデルは個々のデバイスのリソース容量を常に超過し、可変性および競合性のあるネットワーク上での異種デバイス間の分散実行を必要としている。
既存のハイブリッド(データやパイプラインなど)の並列処理はスループットやデバイス利用に最適化されており、QoEを見渡すことで、実行時の動的条件下でのリソース不効率(例えば不要なエネルギドレイン)やQoE違反につながる。
我々は、分散エッジAIトレーニングと推論におけるハイブリッド並列性を認識するQoEのためのフレームワークであるDoraを紹介する。
Doraは3つの重要なメカニズムを通じて、異種計算、競合傾向ネットワーク、多次元QoE目標を共同で最適化する。
一 デバイス間のモデル分割を決定し、割り当てし、かつ、QoEに準拠した計画のコンパクトなセットを形成する異質性を考慮したモデル分割器
(二)計算通信重複の最大化により、これらの候補計画をさらに洗練する競合意識ネットワークスケジューラ
3)QoEを尊重しつつ,グローバル効率を最大化する複数のプランを適応的に構成するランタイムアダプタ。
スマートホーム、トラフィック分析、小さなエッジクラスタなど、代表的なエッジデプロイメント全体にわたって、Doraは1.1~6.3倍の高速実行を実現し、代わりに、実行時ダイナミクスの下でQoEを維持しながら、エネルギー消費を21~82パーセント削減する。
関連論文リスト
- AoI-Aware Task Offloading and Transmission Optimization for Industrial IoT Networks: A Branching Deep Reinforcement Learning Approach [43.261887758877386]
産業用モノのインターネット(Industrial Internet of Things, IIoT)では、無線ネットワーク上で大量のデータを頻繁に送信することは、厳しいタイムライン要件を満たす必要がある。
Information (AoI)-aware multi-base station (BS) real-time monitoring framework to support extensive IIoT deployments。
論文 参考訳(メタデータ) (2025-10-18T09:14:39Z) - CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Batching-Aware Joint Model Onloading and Offloading for Hierarchical Multi-Task Inference [16.974966624253156]
クライアントとエッジサーバにどのマルチタスクモデルをデプロイ(オンロード)するかを共同で決定する統合フレームワークを提案する。
本稿では,ラグランジアン近似による部分モジュラー最適化によりモデル載荷を選択し,最適なオフロードを決定する交互アルゴリズムであるJ3Oを紹介する。
実験によると、J3Oは最適な精度の97%以上を一貫して達成し、最適なソルバが要求するランタイムの15%以下を達成している。
論文 参考訳(メタデータ) (2025-08-18T21:49:32Z) - Automatic Operator-level Parallelism Planning for Distributed Deep Learning -- A Mixed-Integer Programming Approach [6.449961842220686]
本稿では,最適性と計算効率のバランスをとる二段階のソリューションフレームワークを提案する。
我々のフレームワークは、同等または優れた性能を実現し、同じメモリ制約下で計算バブルを半分に減らします。
このような能力は、最適な並列化戦略を探求するための貴重な研究ツールであり、大規模なAIデプロイメントのための実践的な産業ソリューションである。
論文 参考訳(メタデータ) (2025-03-12T13:00:29Z) - Profiling AI Models: Towards Efficient Computation Offloading in Heterogeneous Edge AI Systems [0.2357055571094446]
本稿では、AIモデルのプロファイリング、モデルタイプと基盤となるハードウェアに関するデータ収集、リソース利用とタスク完了時間の予測に焦点を当てた研究ロードマップを提案する。
3,000以上の実行での実験は、リソース割り当ての最適化とEdge AIのパフォーマンス向上を約束している。
論文 参考訳(メタデータ) (2024-10-30T16:07:14Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Intelligent Trajectory Design for RIS-NOMA aided Multi-robot
Communications [59.34642007625687]
目的は,ロボットの軌道とNOMA復号命令を協調的に最適化することで,マルチロボットシステムにおける全軌道の総和率を最大化することである。
ARIMAモデルとDouble Deep Q-network (D$3$QN)アルゴリズムを組み合わせたML方式を提案する。
論文 参考訳(メタデータ) (2022-05-03T17:14:47Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。