論文の概要: CrowdHMTware: A Cross-level Co-adaptation Middleware for Context-aware Mobile DL Deployment
- arxiv url: http://arxiv.org/abs/2503.04183v1
- Date: Thu, 06 Mar 2025 07:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:10.656901
- Title: CrowdHMTware: A Cross-level Co-adaptation Middleware for Context-aware Mobile DL Deployment
- Title(参考訳): CrowdHMTware: コンテキスト対応モバイルDLデプロイメントのためのクロスレベルコアダプタミドルウェア
- Authors: Sicong Liu, Bin Guo, Shiyan Luo, Yuzhan Wang, Hao Luo, Cheng Fang, Yuan Xu, Ke Ma, Yao Li, Zhiwen Yu,
- Abstract要約: CrowdHMTwareは、異種モバイルデバイス向けのコンテキスト適応型ディープラーニング(DL)モデルデプロイメントである。
弾力性推論、スケーラブルオフロード、モデル適応エンジンなど、クロスレベル機能コンポーネント間の自動適応ループを確立する。
DLモデル、オフロード、エンジンアクションをさまざまなプラットフォームやタスクにわたって効果的にスケールできます。
- 参考スコア(独自算出の注目度): 19.229115339238803
- License:
- Abstract: There are many deep learning (DL) powered mobile and wearable applications today continuously and unobtrusively sensing the ambient surroundings to enhance all aspects of human lives.To enable robust and private mobile sensing, DL models are often deployed locally on resource-constrained mobile devices using techniques such as model compression or offloading.However, existing methods, either front-end algorithm level (i.e. DL model compression/partitioning) or back-end scheduling level (i.e. operator/resource scheduling), cannot be locally online because they require offline retraining to ensure accuracy or rely on manually pre-defined strategies, struggle with dynamic adaptability.The primary challenge lies in feeding back runtime performance from the back-end level to the front-end level optimization decision. Moreover, the adaptive mobile DL model porting middleware with cross-level co-adaptation is less explored, particularly in mobile environments with diversity and dynamics. In response, we introduce CrowdHMTware, a dynamic context-adaptive DL model deployment middleware for heterogeneous mobile devices. It establishes an automated adaptation loop between cross-level functional components, i.e. elastic inference, scalable offloading, and model-adaptive engine, enhancing scalability and adaptability. Experiments with four typical tasks across 15 platforms and a real-world case study demonstrate that CrowdHMTware can effectively scale DL model, offloading, and engine actions across diverse platforms and tasks. It hides run-time system issues from developers, reducing the required developer expertise.
- Abstract(参考訳): 現在、多くのディープラーニング(DL)によるモバイルおよびウェアラブルアプリケーションが、人間の生活のあらゆる側面を強化するために、周囲の環境を継続的にかつ控えめに感知している。堅牢でプライベートなモバイルセンシングを実現するために、DLモデルは、モデル圧縮やオフロードといった技術を用いて、リソース制約のあるモバイルデバイスにローカルにデプロイされることが多い。しかしながら、既存の手法、すなわち、フロントエンドのアルゴリズムレベル(DLモデルの圧縮/パーティショニング)またはバックエンドのスケジューリングレベル(オペレータ/リソースのスケジューリング)は、オフラインの調整を必要とするため、オフラインで行うことができない。
さらに,クロスレベルなコ適応型ミドルウェアを移植する適応型モバイルDLモデルは,特に多様性と動的性を備えたモバイル環境では,あまり検討されていない。
そこで我々は,異種モバイルデバイス向け動的コンテキスト適応型DLモデルデプロイミドルウェアであるCrowdHMTwareを紹介した。
弾力性推論、スケーラブルなオフロード、モデル適応エンジンなど、クロスレベル機能コンポーネント間の自動適応ループを確立し、スケーラビリティと適応性を向上させる。
15プラットフォームにわたる4つの典型的なタスクと実世界のケーススタディによる実験は、CrowdHMTwareがDLモデル、オフロード、エンジンアクションをさまざまなプラットフォームやタスクにわたって効果的にスケールできることを示しています。
ランタイムシステムの問題を開発者から隠蔽し、必要な開発者の専門知識を削減します。
関連論文リスト
- Mobile-Agent-E: Self-Evolving Mobile Assistant for Complex Tasks [85.48034185086169]
Mobile-Agent-Eは、過去の経験を通じて自己進化できる階層的なマルチエージェントフレームワークである。
Mobile-Agent-Eは従来の最先端アプローチよりも22%の絶対的な改善を実現している。
論文 参考訳(メタデータ) (2025-01-20T20:35:46Z) - AdaScale: Dynamic Context-aware DNN Scaling via Automated Adaptation Loop on Mobile Devices [16.5444553304756]
我々は,動的コンテキストへの深層モデルの適応を自動化する弾性推論フレームワークであるAdaScaleを紹介した。
AdaScaleは精度を5.09%向上し、トレーニングオーバーヘッドを66.89%削減し、推論遅延を1.51倍から6.2倍に高速化し、エネルギーコストを4.69倍削減する。
論文 参考訳(メタデータ) (2024-12-01T08:33:56Z) - Multi-Stream Cellular Test-Time Adaptation of Real-Time Models Evolving in Dynamic Environments [53.79708667153109]
スマートオブジェクト、特に自動運転車は、限られたリソースのために重要なローカル計算の課題に直面している。
そこで本研究では,モデルがハエに適応し,動的環境をセルに分割する,新しいマルチストリームセルラーテスト時間適応方式を提案する。
我々は、位置と天候条件に基づいて定義された細胞を横断する自動運転車の文脈で、我々の方法論を検証する。
論文 参考訳(メタデータ) (2024-04-27T15:00:57Z) - MMA-DFER: MultiModal Adaptation of unimodal models for Dynamic Facial Expression Recognition in-the-wild [81.32127423981426]
実世界のアプリケーションでは,音声およびビデオデータに基づくマルチモーダル感情認識が重要である。
近年の手法は、強力なマルチモーダルエンコーダの事前学習に自己教師付き学習(SSL)の進歩を活用することに重点を置いている。
SSL-pre-trained disimodal encoders を用いて,この問題に対する異なる視点とマルチモーダル DFER の性能向上について検討する。
論文 参考訳(メタデータ) (2024-04-13T13:39:26Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - Enabling Resource-efficient AIoT System with Cross-level Optimization: A
survey [20.360136850102833]
この調査は、より自由なリソースパフォーマンストレードオフのために、より広い最適化スペースを提供することを目的としています。
様々なレベルに散らばる問題やテクニックを統合することで、読者のつながりを理解し、さらなる議論を促すことを目指している。
論文 参考訳(メタデータ) (2023-09-27T08:04:24Z) - FLuID: Mitigating Stragglers in Federated Learning using Invariant
Dropout [1.8262547855491458]
Federated Learningは、機械学習モデルが個々のモバイルデバイス上でローカルにトレーニングし、共有サーバを介してモデルの更新を同期することを可能にする。
結果として、性能の低いストラグラーデバイスは、FLにおける全体的なトレーニング時間を規定することが多い。
Invariant Dropoutは,重み更新しきい値に基づいてサブモデルを抽出する手法である。
Invariant Dropout を用いた適応学習フレームワークであるFederated Learning を開発した。
論文 参考訳(メタデータ) (2023-07-05T19:53:38Z) - Mobiprox: Supporting Dynamic Approximate Computing on Mobiles [9.012472705158592]
本稿では,モバイル深層学習を柔軟な精度で実現するフレームワークMobiproxを提案する。
Mobiproxはテンソル演算の調整可能な近似を実装し、個々のネットワーク層の実行時適応可能な近似を可能にする。
推定精度に最小限の影響を及ぼすことなく、最大15%のシステムワイドエネルギーを節約できることを実証した。
論文 参考訳(メタデータ) (2023-03-16T21:40:23Z) - OSCAR: Data-Driven Operational Space Control for Adaptive and Robust
Robot Manipulation [50.59541802645156]
オペレーショナル・スペース・コントロール(OSC)は、操作のための効果的なタスクスペース・コントローラとして使われてきた。
本稿では,データ駆動型OSCのモデル誤差を補償するOSC for Adaptation and Robustness (OSCAR)を提案する。
本手法は,様々なシミュレーション操作問題に対して評価し,制御器のベースラインの配列よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2021-10-02T01:21:38Z) - Consolidating Kinematic Models to Promote Coordinated Mobile
Manipulations [96.03270112422514]
我々は,移動体ベース,アーム,移動体操作で操作する物体の運動学を統合する仮想キネマティックチェイン(VKC)を構築した。
移動操作タスクは、構築されたVKCの状態を変更して表現され、移動計画問題に変換することができる。
論文 参考訳(メタデータ) (2021-08-03T02:59:41Z) - OODIn: An Optimised On-Device Inference Framework for Heterogeneous
Mobile Devices [5.522962791793502]
OODInは、異種モバイルデバイスにまたがるディープラーニングアプリの最適化されたデプロイのためのフレームワークである。
デバイスリソースとDLモデルのばらつきを、非常にパラメトリドな多層設計によって対処する。
高度に最適化されたプラットフォームおよびモデル対応設計よりも最大4.3倍、3.5倍の性能向上を実現している。
論文 参考訳(メタデータ) (2021-06-08T22:38:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。