論文の概要: Ekya: Continuous Learning of Video Analytics Models on Edge Compute
Servers
- arxiv url: http://arxiv.org/abs/2012.10557v1
- Date: Sat, 19 Dec 2020 00:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 11:09:12.658591
- Title: Ekya: Continuous Learning of Video Analytics Models on Edge Compute
Servers
- Title(参考訳): Ekya: エッジコンピューティングサーバ上のビデオ分析モデルの継続的学習
- Authors: Romil Bhardwaj, Zhengxu Xia, Ganesh Ananthanarayanan, Junchen Jiang,
Nikolaos Karianakis, Yuanchao Shu, Kevin Hsieh, Victor Bahl, Ion Stoica
- Abstract要約: 継続的学習は、新しいデータ上で定期的にモデルをトレーニングすることで、データのドリフトを処理する。
私たちの仕事は、エッジサーバ上のタスクの推論と再トレーニングを共同でサポートするという課題に対処します。
Ekyaはこのトレードオフを複数のモデルに分散させ、マイクロプロファイラを使用して、リトレーニングによって最も利益を得るモデルを特定します。
- 参考スコア(独自算出の注目度): 20.533131101027067
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Video analytics applications use edge compute servers for the analytics of
the videos (for bandwidth and privacy). Compressed models that are deployed on
the edge servers for inference suffer from data drift, where the live video
data diverges from the training data. Continuous learning handles data drift by
periodically retraining the models on new data. Our work addresses the
challenge of jointly supporting inference and retraining tasks on edge servers,
which requires navigating the fundamental tradeoff between the retrained
model's accuracy and the inference accuracy. Our solution Ekya balances this
tradeoff across multiple models and uses a micro-profiler to identify the
models that will benefit the most by retraining. Ekya's accuracy gain compared
to a baseline scheduler is 29% higher, and the baseline requires 4x more GPU
resources to achieve the same accuracy as Ekya.
- Abstract(参考訳): ビデオ分析アプリケーションは(帯域幅とプライバシーのために)ビデオの分析にedge compute serverを使用する。
推論のためにエッジサーバにデプロイされる圧縮モデルでは、ライブビデオデータがトレーニングデータから逸脱するデータドリフトが発生している。
継続的学習は、新しいデータ上で定期的にモデルをトレーニングすることで、データのドリフトを処理する。
本研究は,エッジサーバ上でのタスクの推論とリトレーニングを共同で支援する課題に対処し,リトレーニングされたモデルの精度と推論精度の基本的なトレードオフをナビゲートする。
当社のソリューションであるekyaでは、このトレードオフを複数のモデルでバランスさせ、micro-profilerを使用して、再トレーニングによって最もメリットのあるモデルを特定しています。
Ekyaの精度はベースラインスケジューラよりも29%高く、ベースラインはEkyaと同じ精度を達成するために4倍のGPUリソースを必要とする。
関連論文リスト
- EdgeSync: Faster Edge-model Updating via Adaptive Continuous Learning for Video Data Drift [7.165359653719119]
リアルタイムビデオ分析システムは一般的に、レイテンシを低減するためにエッジデバイスに重みを減らしたモデルを配置する。
映像コンテンツの特徴の分布は時間とともに変化し、既存のモデルの精度が低下する。
最近の研究は、リモートサーバを使用して、複雑なモデルの助けを借りて、エッジで軽量モデルを継続的にトレーニングし、適応するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T07:06:26Z) - Online Resource Allocation for Edge Intelligence with Colocated Model Retraining and Inference [5.6679198251041765]
我々は、トレーニングモデルと推論の精度を適応的にバランスするリソース割り当てを最適化するために、ORRICというオンライン近似アルゴリズムを導入する。
ORRICの競合比は従来の推論オンリーパラダイムよりも優れている。
論文 参考訳(メタデータ) (2024-05-25T03:05:19Z) - QCore: Data-Efficient, On-Device Continual Calibration for Quantized Models -- Extended Version [34.280197473547226]
機械学習モデルは、ストレージと計算能力に制限のあるエッジデバイスにデプロイすることができる。
エッジ上で連続的なキャリブレーションを可能にするためのQCoreを提案する。
論文 参考訳(メタデータ) (2024-04-22T08:57:46Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Zero-shot Retrieval: Augmenting Pre-trained Models with Search Engines [83.65380507372483]
大規模で事前訓練されたモデルは、問題を解決するのに必要なタスク固有のデータの量を劇的に削減するが、多くの場合、ドメイン固有のニュアンスを箱から取り出すのに失敗する。
本稿では,NLPとマルチモーダル学習の最近の進歩を活用して,検索エンジン検索による事前学習モデルを強化する方法について述べる。
論文 参考訳(メタデータ) (2023-11-29T05:33:28Z) - Training Deep Surrogate Models with Large Scale Online Learning [48.7576911714538]
ディープラーニングアルゴリズムは、PDEの高速解を得るための有効な代替手段として登場した。
モデルは通常、ソルバによって生成された合成データに基づいてトレーニングされ、ディスクに格納され、トレーニングのために読み返される。
ディープサロゲートモデルのためのオープンソースのオンライントレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-28T12:02:27Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Lambda Learner: Fast Incremental Learning on Data Streams [5.543723668681475]
本稿では,データストリームからのミニバッチに対するインクリメンタル更新によるモデルトレーニングのための新しいフレームワークを提案する。
提案するフレームワークのモデルでは,オフラインデータに基づいてトレーニングされた周期的に更新されたモデルを推定し,モデル更新が時間に敏感な場合,性能が向上することを示す。
我々は、大規模ソーシャルネットワークのためのスポンサー付きコンテンツプラットフォームに大規模な展開を提示する。
論文 参考訳(メタデータ) (2020-10-11T04:00:34Z) - Characterizing and Modeling Distributed Training with Transient Cloud
GPU Servers [6.56704851092678]
CM-DAREを用いて,多様なクラスタ構成下での分散トレーニング性能を解析する。
私たちの経験的データセットには、3つのGPUタイプ、6つの地理的領域、20の畳み込みニューラルネットワーク、数千のGoogle Cloudサーバからの計測が含まれています。
また、回帰モデルを用いてトレーニング速度とオーバーヘッドを予測することが可能であることを示す。
論文 参考訳(メタデータ) (2020-04-07T01:49:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。