論文の概要: CausalAffect: Causal Discovery for Facial Affective Understanding
- arxiv url: http://arxiv.org/abs/2512.00456v1
- Date: Sat, 29 Nov 2025 12:07:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.24851
- Title: CausalAffect: Causal Discovery for Facial Affective Understanding
- Title(参考訳): CausalAffect: Causal Discovery for Facial Affective Understanding
- Authors: Guanyu Hu, Tangzheng Lian, Dimitrios Kollias, Oya Celiktutan, Xinyu Yang,
- Abstract要約: CausalAffectは、顔への影響分析における因果グラフ発見のための最初のフレームワークである。
私たちのアプローチでは、共同注釈付きデータセットも手作りの因果前処理も必要ありません。
トレーニングされたモデルとソースコードはすべて、受け入れ次第リリースされる。
- 参考スコア(独自算出の注目度): 26.904783570786773
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding human affect from facial behavior requires not only accurate recognition but also structured reasoning over the latent dependencies that drive muscle activations and their expressive outcomes. Although Action Units (AUs) have long served as the foundation of affective computing, existing approaches rarely address how to infer psychologically plausible causal relations between AUs and expressions directly from data. We propose CausalAffect, the first framework for causal graph discovery in facial affect analysis. CausalAffect models AU-AU and AU-Expression dependencies through a two-level polarity and direction aware causal hierarchy that integrates population-level regularities with sample-adaptive structures. A feature-level counterfactual intervention mechanism further enforces true causal effects while suppressing spurious correlations. Crucially, our approach requires neither jointly annotated datasets nor handcrafted causal priors, yet it recovers causal structures consistent with established psychological theories while revealing novel inhibitory and previously uncharacterized dependencies. Extensive experiments across six benchmarks demonstrate that CausalAffect advances the state of the art in both AU detection and expression recognition, establishing a principled connection between causal discovery and interpretable facial behavior. All trained models and source code will be released upon acceptance.
- Abstract(参考訳): 人間の顔の行動に対する影響を理解するには、正確な認識だけでなく、筋肉の活性化とその表現的な結果を促進する潜伏依存に対する構造的推論が必要である。
アクション・ユニット(AU)は長年、感情コンピューティングの基礎として機能してきたが、既存のアプローチでは、AUとデータから直接、心理的に妥当な因果関係を推測する方法がほとんどない。
顔への影響分析における因果グラフ発見のための最初のフレームワークであるCausalAffectを提案する。
CausalAffect モデル AU-AU と AU-Expression の依存関係を 2 レベルの極性と方向対応因果階層を通じてモデル化し、集団レベルの正規性とサンプル適応構造を統合する。
特徴レベルの反現実的介入機構は、さらに真の因果効果を強制し、急激な相関を抑える。
重要なことは、我々のアプローチは共同で注釈付けされたデータセットも手作りの因果関係も必要としないが、確立された心理学理論と整合した因果構造を復元し、新規な阻害的かつ以前は文字化されていなかった依存関係を明らかにしている。
6つのベンチマークにわたる大規模な実験により、CausalAffectはAUの検出と表現認識の両方において最先端の進歩を示し、因果発見と解釈可能な顔行動の原則的関連を確立している。
トレーニングされたモデルとソースコードはすべて、受け入れ次第リリースされる。
関連論文リスト
- Bridging Prediction and Attribution: Identifying Forward and Backward Causal Influence Ranges Using Assimilative Causal Inference [7.915816961228985]
因果推論は変数間の因果関係を特定する。
最近開発された手法であるAssimilative causal Inference (ACI)は、観測と力学モデルを統合する。
ACIは、瞬時に因果関係を検出し、時間とともに因果関係を断続的に反転させる。
論文 参考訳(メタデータ) (2025-10-24T02:04:56Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - Causal reasoning in typical computer vision tasks [11.95181390654463]
因果理論は、データバイアスの影響を受けない本質的な因果構造をモデル化し、突発的な相関を避けるのに有効である。
本稿では,一般的な視覚・視覚言語タスクにおける既存の因果的手法(セグメンテーション,オブジェクト検出,画像キャプションなど)を包括的にレビューすることを目的とする。
今後のロードマップも提案され、因果論の開発と他の複雑なシーンやシステムへの応用が促進される。
論文 参考訳(メタデータ) (2023-07-26T07:01:57Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Causal Intervention for Subject-Deconfounded Facial Action Unit Recognition [17.261599235264118]
本稿では,主観的不変な顔行動単位認識のための因果推論フレームワークを提案する。
顔画像,被験者,潜伏AU意味関係,推定AU発生確率の因果関係を定式化する。
BP4DとdisFAという2つのAUベンチマークデータセットを用いて行った実験は、我々のCISの有効性を示した。
論文 参考訳(メタデータ) (2022-04-17T05:42:41Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。