論文の概要: Disentangling Static and Dynamic Information for Reducing Static Bias in Action Recognition
- arxiv url: http://arxiv.org/abs/2509.23009v1
- Date: Sat, 27 Sep 2025 00:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.980696
- Title: Disentangling Static and Dynamic Information for Reducing Static Bias in Action Recognition
- Title(参考訳): 動作認識における静的バイアス低減のための静的情報と動的情報を両立させる
- Authors: Masato Kobayashi, Ning Ding, Toru Tamaki,
- Abstract要約: 行動認識モデルは、動的な人間の動きよりも静的な手がかりに過度に依存している。
このバイアスは、現実世界のアプリケーションにおけるパフォーマンスの低下とゼロショットアクション認識につながる。
本研究では,静的シーン情報から時間的動的情報を分離することで,静的バイアスを低減する手法を提案する。
- 参考スコア(独自算出の注目度): 7.926707765944282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Action recognition models rely excessively on static cues rather than dynamic human motion, which is known as static bias. This bias leads to poor performance in real-world applications and zero-shot action recognition. In this paper, we propose a method to reduce static bias by separating temporal dynamic information from static scene information. Our approach uses a statistical independence loss between biased and unbiased streams, combined with a scene prediction loss. Our experiments demonstrate that this method effectively reduces static bias and confirm the importance of scene prediction loss.
- Abstract(参考訳): アクション認識モデルは、静的バイアスとして知られる動的な人間の動きよりも静的な手がかりに過度に依存している。
このバイアスは、現実世界のアプリケーションにおけるパフォーマンスの低下とゼロショットアクション認識につながる。
本稿では,静的シーン情報から時間的動的情報を分離することで,静的バイアスを低減する手法を提案する。
我々の手法は、偏りのあるストリームと偏りのないストリームの間の統計的独立性損失と、シーン予測損失を併用する。
実験により, 静的バイアスを効果的に低減し, シーン予測損失の重要性を確認した。
関連論文リスト
- ALBAR: Adversarial Learning approach to mitigate Biases in Action Recognition [52.537021302246664]
行動認識モデルは、しばしば背景バイアス(背景の手がかりに基づく行動の推測)と前景バイアス(主題の外観に依存する)に悩まされる。
本稿では,前景や背景のバイアスを,バイアス特性の専門知識を必要とせずに軽減する,新たな対人訓練手法であるALBARを提案する。
我々は,提案手法を確立された背景と前景のバイアスプロトコル上で評価し,新しい最先端のバイアスプロトコルを設定し,HMDB51では12%以上のデバイアス性能を向上した。
論文 参考訳(メタデータ) (2025-01-31T20:47:06Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Mitigating and Evaluating Static Bias of Action Representations in the
Background and the Foreground [59.916365866505636]
静的特徴のショートカットは、運動特徴の学習を妨げる可能性があるため、分布外一般化が不十分になる。
本稿では,ビデオの静的および移動部分からの信号に矛盾するテストビデオを作成することにより,前景の静的バイアスの存在を実証的に検証する。
StillMixは、2D参照ネットワークを使ってバイアスを誘発するビデオフレームを特定し、トレーニング用のビデオと混ぜることで、効果的なバイアス抑制を提供する。
論文 参考訳(メタデータ) (2022-11-23T11:40:02Z) - Quantifying and Learning Static vs. Dynamic Information in Deep Spatiotemporal Networks [29.47784194895489]
アクション認識,自動ビデオオブジェクト分割(AVOS),ビデオインスタンス分割(VIS)について検討した。
ほとんどの検査されたモデルは静的情報に偏っている。
ダイナミックスに偏りがあると仮定されるいくつかのデータセットは、実際には静的情報に偏りがある。
論文 参考訳(メタデータ) (2022-11-03T13:17:53Z) - A Deeper Dive Into What Deep Spatiotemporal Networks Encode: Quantifying
Static vs. Dynamic Information [34.595367958746856]
我々は、アクション認識とビデオオブジェクトセグメンテーションという、広く研究されている2つのタスクを分析した。
ほとんどの検査されたモデルは静的情報に偏っている。
クロスコネクションを持つ2ストリームアーキテクチャでは、キャプチャされた静的情報と動的情報のバランスが良くなっている。
論文 参考訳(メタデータ) (2022-06-06T18:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。