論文の概要: On the Query Strategies for Efficient Online Active Distillation
- arxiv url: http://arxiv.org/abs/2309.01612v1
- Date: Mon, 4 Sep 2023 13:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:35:00.594810
- Title: On the Query Strategies for Efficient Online Active Distillation
- Title(参考訳): 効率的なオンラインアクティブ蒸留のためのクエリ戦略について
- Authors: Michele Boldo, Enrico Martini, Mirco De Marchi, Stefano Aldegheri,
Nicola Bombieri
- Abstract要約: 本稿では,最高のトレーニング結果を得るために,一連のクエリ戦略を評価する。
HPE(Human Pose Estimation)アプリケーションに焦点を当て、トレーニング中に選択したフレームの影響を評価する。
本稿では,エッジライトウェイトモデルのトレーニングを可能にする可能性を示し,それをリアルタイムに新しいコンテキストに効果的に適用する。
- 参考スコア(独自算出の注目度): 1.4624458429745086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Learning (DL) requires lots of time and data, resulting in high
computational demands. Recently, researchers employ Active Learning (AL) and
online distillation to enhance training efficiency and real-time model
adaptation. This paper evaluates a set of query strategies to achieve the best
training results. It focuses on Human Pose Estimation (HPE) applications,
assessing the impact of selected frames during training using two approaches: a
classical offline method and a online evaluation through a continual learning
approach employing knowledge distillation, on a popular state-of-the-art HPE
dataset. The paper demonstrates the possibility of enabling training at the
edge lightweight models, adapting them effectively to new contexts in
real-time.
- Abstract(参考訳): ディープラーニング(DL)には多くの時間とデータが必要です。
近年、研究者はトレーニング効率とリアルタイムモデル適応性を高めるために、アクティブラーニング(AL)とオンライン蒸留を採用している。
本稿では,最良の学習結果を得るために,一連の問合せ戦略を評価する。
hpe(human pose estimation)アプリケーションに注目し,従来のオフライン手法と,一般的なhpeデータセットを用いた連続学習アプローチによるオンライン評価という2つのアプローチを用いて,トレーニング中の選択されたフレームの影響を評価する。
本稿では,エッジライトウェイトモデルのトレーニングを可能にする可能性を示し,それをリアルタイムに新しいコンテキストに効果的に適用する。
関連論文リスト
- Compute-Efficient Active Learning [0.0]
アクティブラーニングは、ラベルなしデータセットから最も有益なサンプルを選択することでラベリングコストを削減することを目的としている。
従来のアクティブな学習プロセスは、拡張性と効率を阻害する広範な計算資源を必要とすることが多い。
本稿では,大規模データセット上での能動的学習に伴う計算負担を軽減するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T12:32:07Z) - Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Active Transfer Learning for Efficient Video-Specific Human Pose
Estimation [16.415080031134366]
ヒューマン・ポース(HP)推定は幅広い応用のために活発に研究されている。
本稿では,アクティブラーニング(AL)とトランスファーラーニング(TL)を組み合わせて,HP推定器を個々のビデオ領域に効率よく適応させる手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T21:56:29Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Robust online active learning [0.7734726150561089]
本研究では, 汚染データストリームにおけるオンラインアクティブ線形回帰の性能について検討する。
本稿では,条件付きD-最適アルゴリズムの探索領域を限定し,ロバストな推定器を用いた解を提案する。
論文 参考訳(メタデータ) (2023-02-01T13:14:26Z) - Statistically Efficient Advantage Learning for Offline Reinforcement
Learning in Infinite Horizons [16.635744815056906]
モバイルヘルスアプリケーションなどのオンラインデータ収集を伴わないオフライン領域での強化学習手法を検討する。
提案手法は、既存の最先端RLアルゴリズムによって計算された最適Q推定器を入力とし、初期Q推定器に基づいて導出されたポリシーよりも高速に収束することが保証された新しいポリシーを出力する。
論文 参考訳(メタデータ) (2022-02-26T15:29:46Z) - Efficient training of lightweight neural networks using Online
Self-Acquired Knowledge Distillation [51.66271681532262]
オンライン自己獲得知識蒸留(OSAKD)は、ディープニューラルネットワークの性能をオンライン的に向上することを目的としている。
出力特徴空間におけるデータサンプルの未知確率分布を推定するために、k-nnノンパラメトリック密度推定手法を用いる。
論文 参考訳(メタデータ) (2021-08-26T14:01:04Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Uncertainty Weighted Actor-Critic for Offline Reinforcement Learning [63.53407136812255]
オフライン強化学習は、探索を必要とせずに、事前に収集された静的データセットから効果的なポリシーを学ぶことを約束する。
既存のQラーニングとアクター批判に基づくオフポリティクスRLアルゴリズムは、アウト・オブ・ディストリビューション(OOD)アクションや状態からのブートストラップ時に失敗する。
我々は,OOD状態-動作ペアを検出し,トレーニング目標への貢献度を下げるアルゴリズムであるUncertainty Weighted Actor-Critic (UWAC)を提案する。
論文 参考訳(メタデータ) (2021-05-17T20:16:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。