論文の概要: Ekya: Continuous Learning of Video Analytics Models on Edge Compute
Servers
- arxiv url: http://arxiv.org/abs/2012.10557v1
- Date: Sat, 19 Dec 2020 00:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 11:09:12.658591
- Title: Ekya: Continuous Learning of Video Analytics Models on Edge Compute
Servers
- Title(参考訳): Ekya: エッジコンピューティングサーバ上のビデオ分析モデルの継続的学習
- Authors: Romil Bhardwaj, Zhengxu Xia, Ganesh Ananthanarayanan, Junchen Jiang,
Nikolaos Karianakis, Yuanchao Shu, Kevin Hsieh, Victor Bahl, Ion Stoica
- Abstract要約: 継続的学習は、新しいデータ上で定期的にモデルをトレーニングすることで、データのドリフトを処理する。
私たちの仕事は、エッジサーバ上のタスクの推論と再トレーニングを共同でサポートするという課題に対処します。
Ekyaはこのトレードオフを複数のモデルに分散させ、マイクロプロファイラを使用して、リトレーニングによって最も利益を得るモデルを特定します。
- 参考スコア(独自算出の注目度): 20.533131101027067
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Video analytics applications use edge compute servers for the analytics of
the videos (for bandwidth and privacy). Compressed models that are deployed on
the edge servers for inference suffer from data drift, where the live video
data diverges from the training data. Continuous learning handles data drift by
periodically retraining the models on new data. Our work addresses the
challenge of jointly supporting inference and retraining tasks on edge servers,
which requires navigating the fundamental tradeoff between the retrained
model's accuracy and the inference accuracy. Our solution Ekya balances this
tradeoff across multiple models and uses a micro-profiler to identify the
models that will benefit the most by retraining. Ekya's accuracy gain compared
to a baseline scheduler is 29% higher, and the baseline requires 4x more GPU
resources to achieve the same accuracy as Ekya.
- Abstract(参考訳): ビデオ分析アプリケーションは(帯域幅とプライバシーのために)ビデオの分析にedge compute serverを使用する。
推論のためにエッジサーバにデプロイされる圧縮モデルでは、ライブビデオデータがトレーニングデータから逸脱するデータドリフトが発生している。
継続的学習は、新しいデータ上で定期的にモデルをトレーニングすることで、データのドリフトを処理する。
本研究は,エッジサーバ上でのタスクの推論とリトレーニングを共同で支援する課題に対処し,リトレーニングされたモデルの精度と推論精度の基本的なトレードオフをナビゲートする。
当社のソリューションであるekyaでは、このトレードオフを複数のモデルでバランスさせ、micro-profilerを使用して、再トレーニングによって最もメリットのあるモデルを特定しています。
Ekyaの精度はベースラインスケジューラよりも29%高く、ベースラインはEkyaと同じ精度を達成するために4倍のGPUリソースを必要とする。
関連論文リスト
- CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - An Edge-Cloud Integrated Framework for Flexible and Dynamic Stream
Analytics [4.917500412555004]
我々は、RNNベースのストリーム分析において、エッジリソースとクラウドリソースを最大限に活用して、より正確な精度とレイテンシを実現する方法について研究する。
本稿では,エッジ上での低レイテンシ推論とクラウド上での高キャパシティトレーニングをサポートするハイブリッドストリーム分析のための,エッジクラウド統合フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-10T01:56:16Z) - Dataset Distillation by Matching Training Trajectories [75.9031209877651]
そこで本研究では,実データと同じような状態にネットワークを誘導するために,蒸留データを最適化する新しい定式化を提案する。
ネットワークが与えられたら、蒸留データを何回か繰り返して訓練し、合成訓練されたパラメータと実データで訓練されたパラメータとの距離に関して蒸留データを最適化する。
本手法は既存の手法よりも優れており,高解像度の視覚データを蒸留することができる。
論文 参考訳(メタデータ) (2022-03-22T17:58:59Z) - Reproducible, incremental representation learning with Rosetta VAE [0.0]
変分オートエンコーダは、高次元データから低次元構造を蒸留する最も一般的な方法の一つである。
我々は、以前に学習した表現を蒸留し、新しいモデルを再現し、事前の結果に基づいて構築する手法であるRosetta VAEを紹介する。
R-VAEは、VAEや$beta$-VAEと同様にデータを再構成し、連続的なトレーニング環境でターゲット潜在空間の回復において、両方の手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-01-13T20:45:35Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Churn Reduction via Distillation [54.5952282395487]
本研究は, 基礎モデルを教師として用いた蒸留によるトレーニングと, 予測的チャーンに対する明示的な制約によるトレーニングとの等価性を示す。
次に, 蒸留が近年の多くのベースラインに対する低チャーン訓練に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-04T18:03:31Z) - Towards Unsupervised Fine-Tuning for Edge Video Analytics [1.1091582432763736]
自動モデル特殊化による余分な計算コストを伴わずにエッジモデルの精度を向上させる手法を提案する。
その結果,本手法は,事前学習モデルの精度を平均21%向上できることがわかった。
論文 参考訳(メタデータ) (2021-04-14T12:57:40Z) - Self-Supervised Pretraining Improves Self-Supervised Pretraining [83.1423204498361]
自己教師付き事前トレーニングには、高価で長い計算と大量のデータが必要で、データ拡張に敏感である。
本稿では,既存の事前学習モデルを用いて事前学習プロセスを初期化することにより,収束時間を短縮し,精度を向上させる階層的事前学習(HPT)について検討する。
HPTが最大80倍速く収束し、タスク全体の精度が向上し、自己監視された事前トレーニングプロセスの堅牢性が、画像増強ポリシーまたは事前トレーニングデータの量の変化に改善されることを示します。
論文 参考訳(メタデータ) (2021-03-23T17:37:51Z) - Data Impressions: Mining Deep Models to Extract Samples for Data-free
Applications [26.48630545028405]
データインプレッションはトレーニングデータのプロキシとして機能し、さまざまなタスクを実現するために使用することができる。
いくつかのコンピュータビジョンタスクにおけるデータインプレッションの適用性を示す。
論文 参考訳(メタデータ) (2021-01-15T11:37:29Z) - Feature Selection for Learning to Predict Outcomes of Compute Cluster
Jobs with Application to Decision Support [7.55043162959755]
高性能コンピューティングクラスタのためのSlurm Workload Managerから、機械学習フレームワークとデータマイニングのための新しいテストベッドを提示する。
ユーザがCPUとメモリの割り当てを強化して失敗したジョブを再提出するか、あるいはそれらをコンピューティングクラウドに移行するかを決めるのを支援する。
本稿では,hpcジョブの資源管理(slurm)データ集合に対して,機能選択のための3つの異なる手法を用いて学習した教師付き学習モデルを提案する。
論文 参考訳(メタデータ) (2020-12-14T22:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。