論文の概要: VL4Pose: Active Learning Through Out-Of-Distribution Detection For Pose
Estimation
- arxiv url: http://arxiv.org/abs/2210.06028v1
- Date: Wed, 12 Oct 2022 09:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:46:40.838565
- Title: VL4Pose: Active Learning Through Out-Of-Distribution Detection For Pose
Estimation
- Title(参考訳): VL4Pose: ポーズ推定のための外部分布検出によるアクティブラーニング
- Authors: Megh Shukla, Roshan Roy, Pankaj Singh, Shuaib Ahmed, Alexandre Alahi
- Abstract要約: VL4Poseは、分布外検出によるアクティブな学習のための第一原理的アプローチである。
我々の解は、最大推定により訓練された単純なパラメトリックベイズネットワークを介してポーズをモデル化することを含む。
我々はMPII, LSP, ICVLの3つのデータセットに対して定性的かつ定量的な実験を行い, 人手ポーズ推定を行った。
- 参考スコア(独自算出の注目度): 79.50280069412847
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Advances in computing have enabled widespread access to pose estimation,
creating new sources of data streams. Unlike mock set-ups for data collection,
tapping into these data streams through on-device active learning allows us to
directly sample from the real world to improve the spread of the training
distribution. However, on-device computing power is limited, implying that any
candidate active learning algorithm should have a low compute footprint while
also being reliable. Although multiple algorithms cater to pose estimation,
they either use extensive compute to power state-of-the-art results or are not
competitive in low-resource settings. We address this limitation with VL4Pose
(Visual Likelihood For Pose Estimation), a first principles approach for active
learning through out-of-distribution detection. We begin with a simple premise:
pose estimators often predict incoherent poses for out-of-distribution samples.
Hence, can we identify a distribution of poses the model has been trained on,
to identify incoherent poses the model is unsure of? Our solution involves
modelling the pose through a simple parametric Bayesian network trained via
maximum likelihood estimation. Therefore, poses incurring a low likelihood
within our framework are out-of-distribution samples making them suitable
candidates for annotation. We also observe two useful side-outcomes: VL4Pose
in-principle yields better uncertainty estimates by unifying joint and pose
level ambiguity, as well as the unintentional but welcome ability of VL4Pose to
perform pose refinement in limited scenarios. We perform qualitative and
quantitative experiments on three datasets: MPII, LSP and ICVL, spanning human
and hand pose estimation. Finally, we note that VL4Pose is simple,
computationally inexpensive and competitive, making it suitable for challenging
tasks such as on-device active learning.
- Abstract(参考訳): コンピューティングの進歩により、ポーズ推定への広範囲なアクセスが可能となり、新しいデータストリーム源が生み出された。
データ収集のためのモックセットアップとは異なり、オンデバイスでのアクティブラーニングを通じてこれらのデータストリームをタップすることで、トレーニング分布の拡散を改善するために現実世界から直接サンプルすることが可能になります。
しかし、オンデバイスコンピューティングのパワーは限られており、あらゆる候補アクティブラーニングアルゴリズムは、信頼性を保ちながら、計算フットプリントを低くすべきである。
複数のアルゴリズムが推定のポーズを取るが、彼らは膨大な計算を使って最先端の結果を出力するか、低リソース環境では競合しない。
VL4Pose(Visual Likelihood For Pose Estimation)は、分布外検出によるアクティブな学習のための第一原理である。
ポーズ推定者は、しばしば分散サンプルの一貫性のないポーズを予測します。
したがって、モデルがトレーニングされたポーズの分布を特定でき、モデルが不確実なポーズを特定することができるのか?
我々の解は、最大推定により訓練された単純なパラメトリックベイズネットワークを介してポーズをモデル化する。
したがって、我々のフレームワーク内で低い確率で現れるポーズは、アノテーションの候補となるような分布外のサンプルである。
vl4pose in-principleはジョイントとポーズレベルのあいまいさを統一することでより良い不確実性推定を導き、限定的なシナリオでポーズ調整を行うvl4poseの意図しないが歓迎される能力をもたらす。
我々はMPII, LSP, ICVLの3つのデータセットについて定性的かつ定量的な実験を行った。
最後に、VL4Poseはシンプルで、安価で、競争力があり、デバイス上でのアクティブな学習のような困難なタスクに適していることに留意する。
関連論文リスト
- Data Adaptive Traceback for Vision-Language Foundation Models in Image Classification [34.37262622415682]
我々はData Adaptive Tracebackと呼ばれる新しい適応フレームワークを提案する。
具体的には、ゼロショット法を用いて、事前学習データの最もダウンストリームなタスク関連サブセットを抽出する。
我々は、擬似ラベルに基づく半教師付き手法を採用し、事前学習画像の再利用と、半教師付き学習における確証バイアス問題に対処するための視覚言語コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2024-07-11T18:01:58Z) - Probabilistic Contrastive Learning for Long-Tailed Visual Recognition [78.70453964041718]
細長い分布は、少数の少数派が限られた数のサンプルを含む実世界のデータにしばしば現れる。
近年の研究では、教師付きコントラスト学習がデータ不均衡を緩和する有望な可能性を示していることが明らかになっている。
本稿では,特徴空間の各クラスからのサンプルデータ分布を推定する確率論的コントラスト学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-11T13:44:49Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - ProbVLM: Probabilistic Adapter for Frozen Vision-Language Models [69.50316788263433]
本稿では,事前学習された視覚言語モデルの埋め込みに対する確率分布を推定する確率的アダプタProbVLMを提案する。
本稿では,検索タスクにおける不確実性埋め込みのキャリブレーションを定量化し,ProbVLMが他の手法よりも優れていることを示す。
本稿では,大規模な事前学習型潜伏拡散モデルを用いて,埋め込み分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-01T18:16:06Z) - Gaussian Switch Sampling: A Second Order Approach to Active Learning [11.775252660867285]
能動的学習において、取得関数は、モデル多様体内の表現位置に直接情報性を定義する。
本稿では,アクティブラーニングの文脈における情報内容とサンプルの重要性の2次定義を提案する。
我々は,モデル表現が訓練データの欠如によって制約されている場合でも,その定義が極めて正確な重要度スコアを生成することを示す。
論文 参考訳(メタデータ) (2023-02-16T15:24:56Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Knowledge-driven Active Learning [70.37119719069499]
アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
論文 参考訳(メタデータ) (2021-10-15T06:11:53Z) - EGL++: Extending Expected Gradient Length to Active Learning for Human
Pose Estimation [2.0305676256390934]
最先端の人間のポーズ推定モデルは、堅牢なパフォーマンスのために大量のラベル付きデータに依存する。
EGL++は、予測勾配長を離散ラベルが利用できないタスクに拡張する新しいアルゴリズムである。
論文 参考訳(メタデータ) (2021-04-19T17:56:59Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。