論文の概要: Responsive DNN Adaptation for Video Analytics against Environment Shift via Hierarchical Mobile-Cloud Collaborations
- arxiv url: http://arxiv.org/abs/2505.00745v1
- Date: Wed, 30 Apr 2025 08:08:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:19.767214
- Title: Responsive DNN Adaptation for Video Analytics against Environment Shift via Hierarchical Mobile-Cloud Collaborations
- Title(参考訳): 階層型モバイルクラウドコラボレーションによる環境変化に対するビデオ分析のための応答型DNN適応
- Authors: Maozhe Zhao, Shengzhong Liu, Fan Wu, Guihai Chen,
- Abstract要約: 既存のモデル適応フレームワークは、クラウド中心の方法で動作し、適応中に劣化したパフォーマンスを示し、環境シフトに対する遅延反応を示す。
本稿では,モバイルリソースとクラウドリソースの階層的協調による連続モデル適応の応答性を最適化する新しいフレームワークMOCHAを提案する。
- 参考スコア(独自算出の注目度): 31.634580186614436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mobile video analysis systems often encounter various deploying environments, where environment shifts present greater demands for responsiveness in adaptations of deployed "expert DNN models". Existing model adaptation frameworks primarily operate in a cloud-centric way, exhibiting degraded performance during adaptation and delayed reactions to environment shifts. Instead, this paper proposes MOCHA, a novel framework optimizing the responsiveness of continuous model adaptation through hierarchical collaborations between mobile and cloud resources. Specifically, MOCHA (1) reduces adaptation response delays by performing on-device model reuse and fast fine-tuning before requesting cloud model retrieval and end-to-end retraining; (2) accelerates history expert model retrieval by organizing them into a structured taxonomy utilizing domain semantics analyzed by a cloud foundation model as indices; (3) enables efficient local model reuse by maintaining onboard expert model caches for frequent scenes, which proactively prefetch model weights from the cloud model database. Extensive evaluations with real-world videos on three DNN tasks show MOCHA improves the model accuracy during adaptation by up to 6.8% while saving the response delay and retraining time by up to 35.5x and 3.0x respectively.
- Abstract(参考訳): モバイルビデオ分析システムは様々な展開環境に遭遇することが多く、環境シフトはデプロイされたDNNモデルの適応における応答性に対するより大きな要求を示す。
既存のモデル適応フレームワークは、主にクラウド中心の方法で動作し、適応中に劣化したパフォーマンスを示し、環境シフトに対する遅延反応を示す。
そこで本研究では,モバイルリソースとクラウドリソースの階層的協調による連続モデル適応の応答性を最適化する新しいフレームワークMOCHAを提案する。
特に、MOCHA(1)は、クラウドモデル検索とエンドツーエンド再トレーニングを依頼する前に、オンデバイスモデル再利用と高速な微調整を行うことにより適応応答遅延を低減し、(2)クラウド基盤モデルによって分析されたドメインセマンティクスを指標として構造化された分類に分類することにより、履歴専門家モデル検索を加速し、(3)クラウドモデルデータベースから積極的にモデルの重みをプリフェッチする頻繁なシーンに対して、オンボードエキスパートモデルキャッシュを維持することにより、効率的なローカルモデル再利用を可能にする。
3つのDNNタスクにおける実世界のビデオによる大規模な評価は、MOCHAが適応中のモデルの精度を最大6.8%改善し、応答遅延と再トレーニング時間を最大35.5xと3.0xに短縮したことを示している。
関連論文リスト
- IONext: Unlocking the Next Era of Inertial Odometry [24.137981640306034]
我々は,CNNを用いた新しい慣性眼振背骨, Next Era of Inertial Odometry (IONext) を提案する。
IONextは、最先端(SOTA)トランスフォーマーとCNNベースのメソッドを一貫して上回っている。
例えばRNINデータセットでは、IONextは代表モデルのiMOTと比較して平均ATEを10%、平均RTEを12%削減する。
論文 参考訳(メタデータ) (2025-07-23T00:09:36Z) - Addressing Concept Shift in Online Time Series Forecasting: Detect-then-Adapt [37.98336090671441]
概念 textbfDrift textbfDetection antextbfD textbfAdaptation (D3A)
まずドリフトの概念を検知し、次に急激な適応の検出の後、現在のモデルをドリフトされた概念に積極的に適応する。
これは、トレイン-テストのパフォーマンスの不整合に寄与する重要な要因であるデータ分散ギャップを軽減するのに役立ちます。
論文 参考訳(メタデータ) (2024-03-22T04:44:43Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - F3-Pruning: A Training-Free and Generalized Pruning Strategy towards
Faster and Finer Text-to-Video Synthesis [94.10861578387443]
変圧器と拡散モデルを用いた2つの主流T2Vモデルの推論過程について検討する。
本稿では、時間的余分な注意重みを突破するF3プルーニングと呼ばれるトレーニングフリーで一般化されたプルーニング戦略を提案する。
古典的なトランスフォーマーベースモデルCogVideoと典型的な拡散ベースモデルTune-A-Videoを用いた3つのデータセットの大規模な実験により、F3-Pruningの有効性が検証された。
論文 参考訳(メタデータ) (2023-12-06T12:34:47Z) - ECLM: Efficient Edge-Cloud Collaborative Learning with Continuous
Environment Adaptation [47.35179593006409]
動的エッジ環境に対する高速モデル適応のためのエッジクラウド協調学習フレームワークECLMを提案する。
その結果,ECLM はモデルの性能(例えば 18.89% の精度向上)と資源効率(例えば 7.12 倍の通信コスト削減)を,動的エッジ環境への適応において著しく向上させることを示した。
論文 参考訳(メタデータ) (2023-11-18T14:10:09Z) - Slimmable Domain Adaptation [112.19652651687402]
重み付けモデルバンクを用いて、ドメイン間の一般化を改善するためのシンプルなフレームワーク、Slimmable Domain Adaptationを導入する。
私たちのフレームワークは、他の競合するアプローチを、複数のベンチマークにおいて非常に大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-06-14T06:28:04Z) - Triple-level Model Inferred Collaborative Network Architecture for Video
Deraining [43.06607185181434]
我々は,協調最適化と自動探索機構を用いてネットワークアーキテクチャを推定するモデル誘導三段階最適化フレームワークを開発した。
我々のモデルは、最先端の作業よりも忠実度と時間的一貫性が著しく向上したことを示している。
論文 参考訳(メタデータ) (2021-11-08T13:09:00Z) - Out-of-Domain Human Mesh Reconstruction via Dynamic Bilevel Online
Adaptation [87.85851771425325]
我々は、人間のメッシュ再構成モデルをドメイン外ストリーミングビデオに適用する際の新しい問題を考える。
オンライン適応によってこの問題に対処し、テスト中のモデルのバイアスを徐々に修正します。
動的バイレベルオンライン適応アルゴリズム(DynaBOA)を提案する。
論文 参考訳(メタデータ) (2021-11-07T07:23:24Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。