論文の概要: Disentangling Static and Dynamic Information for Reducing Static Bias in Action Recognition
- arxiv url: http://arxiv.org/abs/2509.23009v1
- Date: Sat, 27 Sep 2025 00:03:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.980696
- Title: Disentangling Static and Dynamic Information for Reducing Static Bias in Action Recognition
- Title(参考訳): 動作認識における静的バイアス低減のための静的情報と動的情報を両立させる
- Authors: Masato Kobayashi, Ning Ding, Toru Tamaki,
- Abstract要約: 行動認識モデルは、動的な人間の動きよりも静的な手がかりに過度に依存している。
このバイアスは、現実世界のアプリケーションにおけるパフォーマンスの低下とゼロショットアクション認識につながる。
本研究では,静的シーン情報から時間的動的情報を分離することで,静的バイアスを低減する手法を提案する。
- 参考スコア(独自算出の注目度): 7.926707765944282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Action recognition models rely excessively on static cues rather than dynamic human motion, which is known as static bias. This bias leads to poor performance in real-world applications and zero-shot action recognition. In this paper, we propose a method to reduce static bias by separating temporal dynamic information from static scene information. Our approach uses a statistical independence loss between biased and unbiased streams, combined with a scene prediction loss. Our experiments demonstrate that this method effectively reduces static bias and confirm the importance of scene prediction loss.
- Abstract(参考訳): アクション認識モデルは、静的バイアスとして知られる動的な人間の動きよりも静的な手がかりに過度に依存している。
このバイアスは、現実世界のアプリケーションにおけるパフォーマンスの低下とゼロショットアクション認識につながる。
本稿では,静的シーン情報から時間的動的情報を分離することで,静的バイアスを低減する手法を提案する。
我々の手法は、偏りのあるストリームと偏りのないストリームの間の統計的独立性損失と、シーン予測損失を併用する。
実験により, 静的バイアスを効果的に低減し, シーン予測損失の重要性を確認した。
関連論文リスト
- ALBAR: Adversarial Learning approach to mitigate Biases in Action Recognition [52.537021302246664]
行動認識モデルは、しばしば背景バイアス(背景の手がかりに基づく行動の推測)と前景バイアス(主題の外観に依存する)に悩まされる。
本稿では,前景や背景のバイアスを,バイアス特性の専門知識を必要とせずに軽減する,新たな対人訓練手法であるALBARを提案する。
我々は,提案手法を確立された背景と前景のバイアスプロトコル上で評価し,新しい最先端のバイアスプロトコルを設定し,HMDB51では12%以上のデバイアス性能を向上した。
論文 参考訳(メタデータ) (2025-01-31T20:47:06Z) - Sequential Disentanglement by Extracting Static Information From A Single Sequence Element [7.631288333466648]
基本的な表現学習タスクの1つは、教師なしのシーケンシャルな絡み合いである。
本稿では,情報漏洩を軽減し,簡易かつ効果的な減算帰納入バイアスを提供することにより,情報漏洩を緩和する新規かつ簡易なアーキテクチャを提案する。
いくつかの強力なベースラインと比較して、生成および予測タスクにおける最先端結果以上の結果を示す。
論文 参考訳(メタデータ) (2024-06-26T07:32:47Z) - Mitigating Biases for Instruction-following Language Models via Bias Neurons Elimination [54.865941973768905]
本稿では,命令追従設定における言語モデルのバイアスニューロンを除去するための,新しい実用的なバイアス緩和手法であるCRISPRを提案する。
CRISPRは自動的にバイアス出力を決定し、バイアス出力に影響を与えるニューロンを説明可能性法を用いてバイアスニューロンに分類する。
実験により,モデルのタスク性能と既存知識を損なうことなく,ゼロショット命令追従条件下でのバイアス軽減効果が示された。
論文 参考訳(メタデータ) (2023-11-16T07:16:55Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Mitigating and Evaluating Static Bias of Action Representations in the
Background and the Foreground [59.916365866505636]
静的特徴のショートカットは、運動特徴の学習を妨げる可能性があるため、分布外一般化が不十分になる。
本稿では,ビデオの静的および移動部分からの信号に矛盾するテストビデオを作成することにより,前景の静的バイアスの存在を実証的に検証する。
StillMixは、2D参照ネットワークを使ってバイアスを誘発するビデオフレームを特定し、トレーニング用のビデオと混ぜることで、効果的なバイアス抑制を提供する。
論文 参考訳(メタデータ) (2022-11-23T11:40:02Z) - Quantifying and Learning Static vs. Dynamic Information in Deep Spatiotemporal Networks [29.47784194895489]
アクション認識,自動ビデオオブジェクト分割(AVOS),ビデオインスタンス分割(VIS)について検討した。
ほとんどの検査されたモデルは静的情報に偏っている。
ダイナミックスに偏りがあると仮定されるいくつかのデータセットは、実際には静的情報に偏りがある。
論文 参考訳(メタデータ) (2022-11-03T13:17:53Z) - A Deeper Dive Into What Deep Spatiotemporal Networks Encode: Quantifying
Static vs. Dynamic Information [34.595367958746856]
我々は、アクション認識とビデオオブジェクトセグメンテーションという、広く研究されている2つのタスクを分析した。
ほとんどの検査されたモデルは静的情報に偏っている。
クロスコネクションを持つ2ストリームアーキテクチャでは、キャプチャされた静的情報と動的情報のバランスが良くなっている。
論文 参考訳(メタデータ) (2022-06-06T18:39:37Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Motion-Excited Sampler: Video Adversarial Attack with Sparked Prior [63.11478060678794]
そこで本研究では,前もってモーションアウェアノイズを得るための効果的なモーションエキサイティングサンプリング手法を提案する。
より少ないクエリ数で様々なビデオ分類モデルを攻撃することができる。
論文 参考訳(メタデータ) (2020-03-17T10:54:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。