論文の概要: Reconstructing Humpty Dumpty: Multi-feature Graph Autoencoder for Open
Set Action Recognition
- arxiv url: http://arxiv.org/abs/2212.06023v1
- Date: Mon, 12 Dec 2022 16:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 17:06:30.642290
- Title: Reconstructing Humpty Dumpty: Multi-feature Graph Autoencoder for Open
Set Action Recognition
- Title(参考訳): humpty dumpty再構成:オープンセット動作認識のための多機能グラフオートエンコーダ
- Authors: Dawei Du, Ameya Shringi, Anthony Hoogs, Christopher Funk
- Abstract要約: オープンセットのアクション認識問題では、テストサンプルは既知のクラスまたは未知のクラスから引き出すことができる。
本手法では,ビデオの新規性を決定するために再構成誤差を用いる。
ハンプティダンプティ(Humpty Dumpty)は、文脈的・意味的関係を考慮に入れたグラフベースの新しいオートエンコーダである。
- 参考スコア(独自算出の注目度): 20.84134660183474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most action recognition datasets and algorithms assume a closed world, where
all test samples are instances of the known classes. In open set problems, test
samples may be drawn from either known or unknown classes. Existing open set
action recognition methods are typically based on extending closed set methods
by adding post hoc analysis of classification scores or feature distances and
do not capture the relations among all the video clip elements. Our approach
uses the reconstruction error to determine the novelty of the video since
unknown classes are harder to put back together and thus have a higher
reconstruction error than videos from known classes. We refer to our solution
to the open set action recognition problem as "Humpty Dumpty", due to its
reconstruction abilities. Humpty Dumpty is a novel graph-based autoencoder that
accounts for contextual and semantic relations among the clip pieces for
improved reconstruction. A larger reconstruction error leads to an increased
likelihood that the action can not be reconstructed, i.e., can not put Humpty
Dumpty back together again, indicating that the action has never been seen
before and is novel/unknown. Extensive experiments are performed on two
publicly available action recognition datasets including HMDB-51 and UCF-101,
showing the state-of-the-art performance for open set action recognition.
- Abstract(参考訳): ほとんどのアクション認識データセットとアルゴリズムは、すべてのテストサンプルが既知のクラスのインスタンスであるクローズドワールドを想定している。
開集合問題では、テストサンプルは既知のクラスまたは未知のクラスから引き出すことができる。
既存のオープンセット動作認識法は、通常、分類スコアや特徴距離のポストホック分析を追加することによって拡張された閉セット法に基づいており、すべてのビデオクリップ要素間の関係を捉えない。
本手法は,未知のクラスを組み戻すのが難しく,既知のクラスのビデオよりも高い再構成誤差を有するため,映像の新規性を決定するために再構成誤差を用いる。
我々は,オープンセット動作認識問題に対する我々の解決策を,その再構築能力から「ハンプティダンプティ」と呼んでいる。
humpty dumptyは、新しいグラフベースのオートエンコーダで、クリップのコンテクストとセマンティクスの関係を考慮し、再構成を改善する。
より大きなリコンストラクションエラーは、アクションが再構築できない可能性、すなわち、ハンプティダンプティを再び戻せない可能性の増加をもたらし、そのアクションがこれまで見たことがなく、新規/未知であることを示している。
HMDB-51とUCF-101を含む2つの一般公開された行動認識データセットで大規模な実験を行い、オープンセットの行動認識の最先端性能を示す。
関連論文リスト
- SOAR: Scene-debiasing Open-set Action Recognition [81.8198917049666]
本稿では、対向的なシーン再構成モジュールと適応的な対向的なシーン分類モジュールを備えた、Scene-debiasing Open-set Action Recognition (SOAR)を提案する。
前者は、デコーダが映像特徴の映像背景を再構成することを防止し、特徴学習における背景情報を低減する。
後者は、アクションフォアグラウンドに特に重点を置いて、映像の特徴を与えられたシーンタイプの分類を混乱させることを目的としており、シーン不変情報を学習するのに役立つ。
論文 参考訳(メタデータ) (2023-09-03T20:20:48Z) - Free-Form Composition Networks for Egocentric Action Recognition [97.02439848145359]
本稿では,不整形動詞,前置詞,名詞表現を同時に学習できる自由形合成ネットワーク(FFCN)を提案する。
提案したFFCNは、レアクラスのトレーニングデータを直接生成できるため、動作認識性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-07-13T02:22:09Z) - UCF: Uncovering Common Features for Generalizable Deepfake Detection [44.12640679000489]
ディープフェイク検出は、新しい種類の偽造を一般化することが困難であるため、依然として難しい課題である。
本稿では,2種類のオーバーフィッティング問題に共通する偽造特徴を明らかにすることによって対処する新しい手法を提案する。
我々のフレームワークは現在の最先端手法よりも優れた一般化を行うことができる。
論文 参考訳(メタデータ) (2023-04-27T04:07:29Z) - Multi-level Memory-augmented Appearance-Motion Correspondence Framework
for Video Anomaly Detection [1.9511777443446219]
マルチレベルメモリ拡張外見対応フレームワークを提案する。
外観と動きの潜在的対応は、外見と動きのセマンティックスアライメントとセマンティックス代替トレーニングによって探索される。
我々のフレームワークは最先端の手法より優れており、UCSD Ped2、CUHK Avenue、ShanghaiTechのデータセットで99.6%、93.8%、76.3%のAUCを達成した。
論文 参考訳(メタデータ) (2023-03-09T08:43:06Z) - Making Reconstruction-based Method Great Again for Video Anomaly
Detection [64.19326819088563]
ビデオの異常検出は重要な問題だが、難しい問題だ。
既存の再構成に基づく手法は、昔ながらの畳み込みオートエンコーダに依存している。
連続フレーム再構築のための新しいオートエンコーダモデルを提案する。
論文 参考訳(メタデータ) (2023-01-28T01:57:57Z) - Novel Class Discovery without Forgetting [72.52222295216062]
我々は NCDwF: Novel Class Discovery without Forgetting の新たな実用的問題設定を特定し,定式化する。
ラベルのないデータから新しいカテゴリのインスタンスを段階的に発見する機械学習モデルを提案する。
CIFAR-10, CIFAR-100, ImageNet-1000に基づく実験プロトコルを導入し, 知識保持と新しいクラス発見のトレードオフを測定する。
論文 参考訳(メタデータ) (2022-07-21T17:54:36Z) - Incremental Learning from Low-labelled Stream Data in Open-Set Video
Face Recognition [0.0]
本稿では,深層機能エンコーダとSVMのオープンセット動的アンサンブルを組み合わせた新しいインクリメンタル学習手法を提案する。
本手法は,教師なしの操作データを用いて認識性を向上させる。
結果は、非適応状態の方法に対する最大15%のF1スコア増加の利点を示しています。
論文 参考訳(メタデータ) (2020-12-17T13:28:13Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z) - Evolving Losses for Unsupervised Video Representation Learning [91.2683362199263]
大規模未ラベル映像データから映像表現を学習する新しい手法を提案する。
提案した教師なし表現学習では,単一のRGBネットワークが実現し,従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-02-26T16:56:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。