論文の概要: OpenTAL: Towards Open Set Temporal Action Localization
- arxiv url: http://arxiv.org/abs/2203.05114v1
- Date: Thu, 10 Mar 2022 02:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 14:36:31.164510
- Title: OpenTAL: Towards Open Set Temporal Action Localization
- Title(参考訳): OpenTAL: 時間的行動ローカライゼーションのオープン化を目指す
- Authors: Wentao Bao, Qi Yu, Yu Kong
- Abstract要約: Evidential Deep Learning (EDL) に基づく汎用フレームワーク OpenTAL を提案する。
OpenTALは、不確実性を認識したアクション分類、アクションネス予測、時間的位置回帰で構成されている。
コードと事前訓練されたモデルはhttps://www.rit.edu/actionlab/opental.orgで公開されている。
- 参考スコア(独自算出の注目度): 30.59728753059457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal Action Localization (TAL) has experienced remarkable success under
the supervised learning paradigm. However, existing TAL methods are rooted in
the closed set assumption, which cannot handle the inevitable unknown actions
in open-world scenarios. In this paper, we, for the first time, step toward the
Open Set TAL (OSTAL) problem and propose a general framework OpenTAL based on
Evidential Deep Learning (EDL). Specifically, the OpenTAL consists of
uncertainty-aware action classification, actionness prediction, and temporal
location regression. With the proposed importance-balanced EDL method,
classification uncertainty is learned by collecting categorical evidence
majorly from important samples. To distinguish the unknown actions from
background video frames, the actionness is learned by the positive-unlabeled
learning. The classification uncertainty is further calibrated by leveraging
the guidance from the temporal localization quality. The OpenTAL is general to
enable existing TAL models for open set scenarios, and experimental results on
THUMOS14 and ActivityNet1.3 benchmarks show the effectiveness of our method.
The code and pre-trained models are released at
https://www.rit.edu/actionlab/opental.
- Abstract(参考訳): 時間的行動局在 (tal) は教師付き学習パラダイムの下で著しく成功した。
しかし、既存のtalメソッドは、オープンワールドシナリオにおいて避けられない未知のアクションを処理できない閉集合の仮定に根ざしている。
本稿では,まず,オープン・セット・メタル(OSTAL)問題への一歩を踏み出し,エビデンシャル・ディープ・ラーニング(EDL)に基づく一般フレームワークOpenTALを提案する。
具体的には、opentalは不確実性対応行動分類、行動性予測、時間的位置回帰からなる。
重要度バランスedl法では,重要なサンプルからカテゴリー的証拠を収集することで分類の不確かさを学習する。
背景映像フレームから未知の動作を識別するために、正の未ラベル学習によって行動性が学習される。
この分類の不確かさは, 時間的局所化品質の指導を活かしてさらに校正される。
opental はオープンセットシナリオのための既存のtalモデルを可能にするために一般的であり、thums14 と activitynet1.3 ベンチマークの実験結果は本手法の有効性を示している。
コードと事前トレーニングされたモデルは、https://www.rit.edu/actionlab/opentalでリリースされている。
関連論文リスト
- Cascading Unknown Detection with Known Classification for Open Set Recognition [0.6906005491572401]
未知分類を用いたカスケーディング未知検出(Cas-DC)について紹介する。
我々は、既知の/未知の検知と、既知の世界のクラス分類の両方のために、カスケード方式で特殊関数を学習する。
実験と解析により、Cas-DCはオープンセット認識においてモダンな手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-06-10T15:13:07Z) - Informed Decision-Making through Advancements in Open Set Recognition and Unknown Sample Detection [0.0]
オープンセット認識(OSR)は、より現実に近い状況に分類タスクを導入することを目的としている。
本研究は,OSRタスクの分類を改善するために,特徴空間の新たな表現を探索するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-05-09T15:15:34Z) - Test-Time Zero-Shot Temporal Action Localization [58.84919541314969]
ZS-TALは、トレーニング中に目に見えないビデオのアクションを特定し、見つけようとしている。
トレーニングベースのZS-TALアプローチは、教師あり学習のためのラベル付きデータの可用性を前提としている。
時間的行動ローカライゼーション(T3AL)のためのテスト時間適応を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T11:54:49Z) - SOAR: Scene-debiasing Open-set Action Recognition [81.8198917049666]
本稿では、対向的なシーン再構成モジュールと適応的な対向的なシーン分類モジュールを備えた、Scene-debiasing Open-set Action Recognition (SOAR)を提案する。
前者は、デコーダが映像特徴の映像背景を再構成することを防止し、特徴学習における背景情報を低減する。
後者は、アクションフォアグラウンドに特に重点を置いて、映像の特徴を与えられたシーンタイプの分類を混乱させることを目的としており、シーン不変情報を学習するのに役立つ。
論文 参考訳(メタデータ) (2023-09-03T20:20:48Z) - OpenAUC: Towards AUC-Oriented Open-Set Recognition [151.5072746015253]
従来の機械学習は、トレーニングとテストセットが同じラベル空間を共有するという密接な前提に従っている。
Open-Set Recognition (OSR) は、クローズセットサンプルとオープンセットサンプルの両方で正確な予測を行うことを目的としている。
これらの問題を解決するために,OpenAUCという新しいメトリクスを提案する。
論文 参考訳(メタデータ) (2022-10-22T08:54:15Z) - Zero-Shot Temporal Action Detection via Vision-Language Prompting [134.26292288193298]
視覚言語プロンプト(STALE)を用いた新しいゼロショット時間行動検出モデルを提案する。
我々のモデルは最先端の代替品を著しく上回っている。
我々のモデルは、近年の強力な競合相手よりも監督的TADにおいて優れた結果をもたらす。
論文 参考訳(メタデータ) (2022-07-17T13:59:46Z) - Active Learning for Open-set Annotation [38.739845944840454]
我々はLfOSAと呼ばれる新しいアクティブラーニングフレームワークを提案する。このフレームワークは、効果的なサンプリング戦略を用いて分類性能を高め、アノテーションのための既知のクラスからサンプルを正確に検出する。
実験結果から,提案手法は既知のクラスの選択精度を著しく向上し,アノテーションコストの低い分類精度を最先端の能動学習法よりも向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-18T06:11:51Z) - Evidential Deep Learning for Open Set Action Recognition [36.350348194248014]
本研究では,行動認識問題を顕在的深層学習(EDL)の観点から定式化する。
コントラスト学習により学習した表現を劣化させるプラグイン・アンド・プレイ・モジュールを提案する。
論文 参考訳(メタデータ) (2021-07-21T15:45:37Z) - Learning Placeholders for Open-Set Recognition [38.57786747665563]
既知のクラスに対する分類性能を維持し、未知のクラスを拒絶するPlaceholdeRs for Open-SEt Recognition (Proser)を提案する。
Proserはマニホールドミックスアップによって新しいクラスを効率的に生成し、トレーニング中に予約されたオープンセット分類器の値を適応的に設定します。
論文 参考訳(メタデータ) (2021-03-28T09:18:15Z) - Point-Level Temporal Action Localization: Bridging Fully-supervised
Proposals to Weakly-supervised Losses [84.2964408497058]
point-level temporal action localization (ptal) は、各アクションインスタンスに対して1つのタイムスタンプアノテーションで、未トリミングビデオ内のアクションをローカライズすることを目的としている。
既存の手法ではフレームレベルの予測パラダイムを採用し、スパース単一フレームラベルから学習する。
本稿では,ポイントレベルアノテーションの提案に基づく予測パラダイムを検討する。
論文 参考訳(メタデータ) (2020-12-15T12:11:48Z) - STRIPS Action Discovery [67.73368413278631]
近年のアプローチでは、すべての中間状態が欠如している場合でも、アクションモデルを合成する古典的な計画が成功している。
アクションシグネチャが不明な場合に,従来のプランナーを用いてSTRIPSアクションモデルを教師なしで合成するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-30T17:08:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。