論文の概要: EdgeSync: Faster Edge-model Updating via Adaptive Continuous Learning for Video Data Drift
- arxiv url: http://arxiv.org/abs/2406.03001v1
- Date: Wed, 5 Jun 2024 07:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 19:39:21.341727
- Title: EdgeSync: Faster Edge-model Updating via Adaptive Continuous Learning for Video Data Drift
- Title(参考訳): EdgeSync: ビデオデータドリフトのための適応型継続的学習によるより高速なエッジモデル更新
- Authors: Peng Zhao, Runchu Dong, Guiqin Wang, Cong Zhao,
- Abstract要約: リアルタイムビデオ分析システムは一般的に、レイテンシを低減するためにエッジデバイスに重みを減らしたモデルを配置する。
映像コンテンツの特徴の分布は時間とともに変化し、既存のモデルの精度が低下する。
最近の研究は、リモートサーバを使用して、複雑なモデルの助けを借りて、エッジで軽量モデルを継続的にトレーニングし、適応するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 7.165359653719119
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-time video analytics systems typically place models with fewer weights on edge devices to reduce latency. The distribution of video content features may change over time for various reasons (i.e. light and weather change) , leading to accuracy degradation of existing models, to solve this problem, recent work proposes a framework that uses a remote server to continually train and adapt the lightweight model at edge with the help of complex model. However, existing analytics approaches leave two challenges untouched: firstly, retraining task is compute-intensive, resulting in large model update delays; secondly, new model may not fit well enough with the data distribution of the current video stream. To address these challenges, in this paper, we present EdgeSync, EdgeSync filters the samples by considering both timeliness and inference results to make training samples more relevant to the current video content as well as reduce the update delay, to improve the quality of training, EdgeSync also designs a training management module that can efficiently adjusts the model training time and training order on the runtime. By evaluating real datasets with complex scenes, our method improves about 3.4% compared to existing methods and about 10% compared to traditional means.
- Abstract(参考訳): リアルタイムビデオ分析システムは一般的に、レイテンシを低減するためにエッジデバイスに重みを減らしたモデルを配置する。
映像コンテンツの特徴の分布は、様々な理由(光と天気の変化)によって変化し、既存のモデルの精度が低下し、この問題を解決するために、最近の研究は、遠隔サーバを用いて複雑なモデルの助けを借りて、エッジでの軽量モデルを継続的に訓練・適応するフレームワークを提案する。
しかし、既存の分析アプローチでは、2つの課題が未解決のまま残されている: 第一に、再トレーニングタスクは計算集約的であり、大きなモデル更新遅延が発生する;第二に、新しいモデルは現在のビデオストリームのデータ配信に十分適合しないかもしれない。
これらの課題に対処するため、EdgeSyncでは、タイムラインと推論結果の両方を考慮してサンプルをフィルタリングし、現在のビデオコンテンツとより関連性の高いトレーニングサンプルを作成し、更新遅延を低減し、トレーニングの質を向上させるとともに、モデルトレーニング時間と実行時のトレーニング順序を効率的に調整可能なトレーニング管理モジュールも設計する。
複雑なシーンで実際のデータセットを評価することで、従来の手法に比べて約3.4%改善し、従来の手法に比べて約10%改善した。
関連論文リスト
- Truncated Consistency Models [57.50243901368328]
トレーニング一貫性モデルは、PF ODE 軌道に沿ったすべての中間点を対応するエンドポイントにマッピングする学習を必要とする。
このトレーニングパラダイムが一貫性モデルの1ステップ生成性能を制限することを実証的に見出した。
整合性関数の新しいパラメータ化と2段階の訓練手順を提案し,時間外学習が崩壊することを防ぐ。
論文 参考訳(メタデータ) (2024-10-18T22:38:08Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Learning from One Continuous Video Stream [70.30084026960819]
1つの連続ビデオストリームからオンライン学習のためのフレームワークを導入する。
連続するビデオフレーム間の高い相関を考えると、これは大きな課題となる。
プリトレーニングとシングルストリーム評価を切り替える実用的で柔軟な方法として,ピクセル・ツー・ピクセル・モデリングを採用している。
論文 参考訳(メタデータ) (2023-12-01T14:03:30Z) - Investigating Tradeoffs in Real-World Video Super-Resolution [90.81396836308085]
実世界のビデオ超解像(VSR)モデルは、一般化性を改善するために様々な劣化で訓練されることが多い。
最初のトレードオフを軽減するために,性能を犠牲にすることなく,最大40%のトレーニング時間を削減できる劣化手法を提案する。
そこで本研究では,多種多様な実世界の低品質映像系列を含むビデオLQデータセットを提案する。
論文 参考訳(メタデータ) (2021-11-24T18:58:21Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Ekya: Continuous Learning of Video Analytics Models on Edge Compute
Servers [20.533131101027067]
継続的学習は、新しいデータ上で定期的にモデルをトレーニングすることで、データのドリフトを処理する。
私たちの仕事は、エッジサーバ上のタスクの推論と再トレーニングを共同でサポートするという課題に対処します。
Ekyaはこのトレードオフを複数のモデルに分散させ、マイクロプロファイラを使用して、リトレーニングによって最も利益を得るモデルを特定します。
論文 参考訳(メタデータ) (2020-12-19T00:29:22Z) - Lambda Learner: Fast Incremental Learning on Data Streams [5.543723668681475]
本稿では,データストリームからのミニバッチに対するインクリメンタル更新によるモデルトレーニングのための新しいフレームワークを提案する。
提案するフレームワークのモデルでは,オフラインデータに基づいてトレーニングされた周期的に更新されたモデルを推定し,モデル更新が時間に敏感な場合,性能が向上することを示す。
我々は、大規模ソーシャルネットワークのためのスポンサー付きコンテンツプラットフォームに大規模な展開を提示する。
論文 参考訳(メタデータ) (2020-10-11T04:00:34Z) - Real-Time Video Inference on Edge Devices via Adaptive Model Streaming [9.101956442584251]
携帯電話やドローンなどのエッジデバイス上でのリアルタイムビデオ推論は、Deep Neural Networksのコストが高いため、難しい。
本稿では、エッジデバイス上での映像推論のための効率的な軽量モデルの性能向上のための新しいアプローチであるAdaptive Model Streaming (AMS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:25:44Z) - On the performance of deep learning models for time series
classification in streaming [0.0]
この研究は、データストリーミング分類のための様々なタイプのディープアーキテクチャのパフォーマンスを評価することである。
複数の時系列データセット上で,多層パーセプトロン,リカレント,畳み込み,時間的畳み込みニューラルネットワークなどのモデルを評価する。
論文 参考訳(メタデータ) (2020-03-05T11:41:29Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。