論文の概要: Evidential Deep Learning for Open Set Action Recognition
- arxiv url: http://arxiv.org/abs/2107.10161v1
- Date: Wed, 21 Jul 2021 15:45:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:12:58.385028
- Title: Evidential Deep Learning for Open Set Action Recognition
- Title(参考訳): オープンセット行動認識のための証拠深層学習
- Authors: Wentao Bao, Qi Yu, Yu Kong
- Abstract要約: 本研究では,行動認識問題を顕在的深層学習(EDL)の観点から定式化する。
コントラスト学習により学習した表現を劣化させるプラグイン・アンド・プレイ・モジュールを提案する。
- 参考スコア(独自算出の注目度): 36.350348194248014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In a real-world scenario, human actions are typically out of the distribution
from training data, which requires a model to both recognize the known actions
and reject the unknown. Different from image data, video actions are more
challenging to be recognized in an open-set setting due to the uncertain
temporal dynamics and static bias of human actions. In this paper, we propose a
Deep Evidential Action Recognition (DEAR) method to recognize actions in an
open testing set. Specifically, we formulate the action recognition problem
from the evidential deep learning (EDL) perspective and propose a novel model
calibration method to regularize the EDL training. Besides, to mitigate the
static bias of video representation, we propose a plug-and-play module to
debias the learned representation through contrastive learning. Experimental
results show that our DEAR method achieves consistent performance gain on
multiple mainstream action recognition models and benchmarks. Codes and
pre-trained weights will be made available upon paper acceptance.
- Abstract(参考訳): 現実のシナリオでは、人間のアクションはトレーニングデータから分布外であり、既知のアクションを認識し、未知のアクションを拒否するモデルを必要とする。
画像データと異なり、不確実な時間的ダイナミクスと人間の行動の静的バイアスにより、ビデオアクションはオープンな設定で認識することがより困難である。
本稿では,オープンテストセットにおける行動認識のためのdear(deep obviousial action recognition)手法を提案する。
具体的には、顕在的深層学習(EDL)の観点から行動認識問題を定式化し、EDLトレーニングを正規化するための新しいモデル校正法を提案する。
また,映像表現の静的バイアスを軽減するために,コントラスト学習による学習表現の偏りを解消するプラグ・アンド・プレイモジュールを提案する。
実験の結果,複数のメインストリーム行動認識モデルとベンチマークで一貫した性能向上が得られた。
コードと事前訓練された重量は、受理時に利用可能になる。
関連論文リスト
- The impact of Compositionality in Zero-shot Multi-label action recognition for Object-based tasks [4.971065912401385]
ゼロショットマルチラベル動作認識のための統一的なアプローチであるDual-VCLIPを提案する。
Dual-VCLIPは、マルチラベル画像分類のためのDualCoOp法を用いて、ゼロショット動作認識法であるVCLIPを強化する。
オブジェクトベースのアクションの大部分を含むCharadesデータセット上で,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-14T15:28:48Z) - SOAR: Scene-debiasing Open-set Action Recognition [81.8198917049666]
本稿では、対向的なシーン再構成モジュールと適応的な対向的なシーン分類モジュールを備えた、Scene-debiasing Open-set Action Recognition (SOAR)を提案する。
前者は、デコーダが映像特徴の映像背景を再構成することを防止し、特徴学習における背景情報を低減する。
後者は、アクションフォアグラウンドに特に重点を置いて、映像の特徴を与えられたシーンタイプの分類を混乱させることを目的としており、シーン不変情報を学習するのに役立つ。
論文 参考訳(メタデータ) (2023-09-03T20:20:48Z) - Reinforcement Learning from Passive Data via Latent Intentions [86.4969514480008]
我々は、下流RLを加速する機能を学ぶために、受動的データが引き続き使用できることを示す。
我々のアプローチは、意図をモデル化することで受動的データから学習する。
実験では、クロス・エボディメント・ビデオデータやYouTubeビデオなど、さまざまな形式の受動的データから学習できることを実証した。
論文 参考訳(メタデータ) (2023-04-10T17:59:05Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - REST: REtrieve & Self-Train for generative action recognition [54.90704746573636]
本稿では,ビデオ・アクション認識のための事前学習型生成ビジョン・アンド・ランゲージ(V&L)基礎モデルを提案する。
動作クラスを生成するための生成モデルの直接微調整は、過度な過度なオーバーフィッティングに苦しむことを示す。
2つの主要なコンポーネントからなるトレーニングフレームワークであるRESTを紹介します。
論文 参考訳(メタデータ) (2022-09-29T17:57:01Z) - Zero-Shot Action Recognition with Transformer-based Video Semantic
Embedding [36.24563211765782]
現実的な視点から、帰納的ゼロショット動作認識問題を包括的に考察する。
具体的には,ゼロショット動作認識のための具体的定式化を提唱する。
本稿では,長期間の時間依存性を効率的に捉えることができる新しいエンドツーエンド学習型トランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-03-10T05:03:58Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。