論文の概要: Responsive DNN Adaptation for Video Analytics against Environment Shift via Hierarchical Mobile-Cloud Collaborations
- arxiv url: http://arxiv.org/abs/2505.00745v1
- Date: Wed, 30 Apr 2025 08:08:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.767214
- Title: Responsive DNN Adaptation for Video Analytics against Environment Shift via Hierarchical Mobile-Cloud Collaborations
- Title(参考訳): 階層型モバイルクラウドコラボレーションによる環境変化に対するビデオ分析のための応答型DNN適応
- Authors: Maozhe Zhao, Shengzhong Liu, Fan Wu, Guihai Chen,
- Abstract要約: 既存のモデル適応フレームワークは、クラウド中心の方法で動作し、適応中に劣化したパフォーマンスを示し、環境シフトに対する遅延反応を示す。
本稿では,モバイルリソースとクラウドリソースの階層的協調による連続モデル適応の応答性を最適化する新しいフレームワークMOCHAを提案する。
- 参考スコア(独自算出の注目度): 31.634580186614436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile video analysis systems often encounter various deploying environments, where environment shifts present greater demands for responsiveness in adaptations of deployed "expert DNN models". Existing model adaptation frameworks primarily operate in a cloud-centric way, exhibiting degraded performance during adaptation and delayed reactions to environment shifts. Instead, this paper proposes MOCHA, a novel framework optimizing the responsiveness of continuous model adaptation through hierarchical collaborations between mobile and cloud resources. Specifically, MOCHA (1) reduces adaptation response delays by performing on-device model reuse and fast fine-tuning before requesting cloud model retrieval and end-to-end retraining; (2) accelerates history expert model retrieval by organizing them into a structured taxonomy utilizing domain semantics analyzed by a cloud foundation model as indices; (3) enables efficient local model reuse by maintaining onboard expert model caches for frequent scenes, which proactively prefetch model weights from the cloud model database. Extensive evaluations with real-world videos on three DNN tasks show MOCHA improves the model accuracy during adaptation by up to 6.8% while saving the response delay and retraining time by up to 35.5x and 3.0x respectively.
- Abstract(参考訳): モバイルビデオ分析システムは様々な展開環境に遭遇することが多く、環境シフトはデプロイされたDNNモデルの適応における応答性に対するより大きな要求を示す。
既存のモデル適応フレームワークは、主にクラウド中心の方法で動作し、適応中に劣化したパフォーマンスを示し、環境シフトに対する遅延反応を示す。
そこで本研究では,モバイルリソースとクラウドリソースの階層的協調による連続モデル適応の応答性を最適化する新しいフレームワークMOCHAを提案する。
特に、MOCHA(1)は、クラウドモデル検索とエンドツーエンド再トレーニングを依頼する前に、オンデバイスモデル再利用と高速な微調整を行うことにより適応応答遅延を低減し、(2)クラウド基盤モデルによって分析されたドメインセマンティクスを指標として構造化された分類に分類することにより、履歴専門家モデル検索を加速し、(3)クラウドモデルデータベースから積極的にモデルの重みをプリフェッチする頻繁なシーンに対して、オンボードエキスパートモデルキャッシュを維持することにより、効率的なローカルモデル再利用を可能にする。
3つのDNNタスクにおける実世界のビデオによる大規模な評価は、MOCHAが適応中のモデルの精度を最大6.8%改善し、応答遅延と再トレーニング時間を最大35.5xと3.0xに短縮したことを示している。
関連論文リスト
- Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - ECLM: Efficient Edge-Cloud Collaborative Learning with Continuous
Environment Adaptation [47.35179593006409]
動的エッジ環境に対する高速モデル適応のためのエッジクラウド協調学習フレームワークECLMを提案する。
その結果,ECLM はモデルの性能(例えば 18.89% の精度向上)と資源効率(例えば 7.12 倍の通信コスト削減)を,動的エッジ環境への適応において著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-18T14:10:09Z) - Triple-level Model Inferred Collaborative Network Architecture for Video
Deraining [43.06607185181434]
我々は,協調最適化と自動探索機構を用いてネットワークアーキテクチャを推定するモデル誘導三段階最適化フレームワークを開発した。
我々のモデルは、最先端の作業よりも忠実度と時間的一貫性が著しく向上したことを示している。
論文 参考訳(メタデータ) (2021-11-08T13:09:00Z) - Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online
Adaptation [87.85851771425325]
我々は、人間のメッシュ再構成モデルをドメイン外ストリーミングビデオに適用する際の新しい問題を考える。
オンライン適応によってこの問題に対処し、テスト中のモデルのバイアスを徐々に修正します。
動的バイレベルオンライン適応アルゴリズム(DynaBOA)を提案する。
論文 参考訳(メタデータ) (2021-11-07T07:23:24Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。