論文の概要: Causal-Ex: Causal Graph-based Micro and Macro Expression Spotting
- arxiv url: http://arxiv.org/abs/2503.09098v1
- Date: Wed, 12 Mar 2025 06:26:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:39:23.036052
- Title: Causal-Ex: Causal Graph-based Micro and Macro Expression Spotting
- Title(参考訳): Causal-Ex: Causal Graph-based Micro and Macro Expression Spotting
- Authors: Pei-Sze Tan, Sailaja Rajanala, Arghya Pal, Raphaël C. -W. Phan, Huey-Fang Ong,
- Abstract要約: マクロやマイクロエクスプレッションの発見は、潜在的なメンタルヘルスの問題を特定するのに不可欠である。
本稿では,素早い因果推論アルゴリズムを用いて顔行動単位の因果グラフを構築するCausal-Ex(Causal-based Expression Spoting)を提案する。
CAS(ME)2は0.388、SAMM-Long Videoデータセットは0.3701である。
- 参考スコア(独自算出の注目度): 7.572701343425638
- License:
- Abstract: Detecting concealed emotions within apparently normal expressions is crucial for identifying potential mental health issues and facilitating timely support and intervention. The task of spotting macro and micro-expressions involves predicting the emotional timeline within a video, accomplished by identifying the onset, apex, and offset frames of the displayed emotions. Utilizing foundational facial muscle movement cues, known as facial action units, boosts the accuracy. However, an overlooked challenge from previous research lies in the inadvertent integration of biases into the training model. These biases arising from datasets can spuriously link certain action unit movements to particular emotion classes. We tackle this issue by novel replacement of action unit adjacency information with the action unit causal graphs. This approach aims to identify and eliminate undesired spurious connections, retaining only unbiased information for classification. Our model, named Causal-Ex (Causal-based Expression spotting), employs a rapid causal inference algorithm to construct a causal graph of facial action units. This enables us to select causally relevant facial action units. Our work demonstrates improvement in overall F1-scores compared to state-of-the-art approaches with 0.388 on CAS(ME)^2 and 0.3701 on SAMM-Long Video datasets.
- Abstract(参考訳): 正常な表現の中で隠された感情を検出することは、潜在的なメンタルヘルスの問題を特定し、タイムリーな支援と介入を促進するために重要である。
マクロやマイクロ表現を見つけるタスクは、表示された感情のオンセット、頂点、オフセットフレームを特定することで、ビデオ内の感情のタイムラインを予測することである。
顔のアクションユニットとして知られる基礎的な顔の筋肉の動きの手がかりを利用することで、精度が向上する。
しかし、以前の研究で見過ごされた課題は、トレーニングモデルにバイアスを不注意に統合することにある。
データセットから生じるこれらのバイアスは、特定のアクションユニットの動きを特定の感情クラスに急激に関連付けることができる。
本稿では,アクションユニットの隣接情報をアクションユニット因果グラフに置き換えることで,この問題に対処する。
このアプローチは、望ましくないスプリアス接続を特定し、排除することを目的としており、分類のためのバイアスのない情報のみを保持する。
我々のモデルであるCausal-Ex(Causal-based Expression Spoting)は、素早い因果推論アルゴリズムを用いて顔行動単位の因果グラフを構築する。
これにより、因果関係の顔行動単位を選択することができる。
CAS(ME)^2では0.388、SAMM-Long Videoデータセットでは0.3701である。
関連論文リスト
- Leaving Some Facial Features Behind [0.0]
本研究では,Fer2013データセットの顔摂動を用いて,顔の特徴が感情分類にどのように影響するかを検討する。
データに基づいてトレーニングされたモデルは、幸せや驚きといった感情のベースラインと比較して、重要な顔の特徴を除去することで、最大85%の精度低下を経験します。
論文 参考訳(メタデータ) (2024-10-29T02:28:53Z) - Harnessing Temporal Causality for Advanced Temporal Action Detection [53.654457142657236]
本稿では,因果的注意と因果的マンバを組み合わせたCausalTADを提案する。
Ego4D Challenge 2024では,EPIC-Kitchens Challenge 2024では行動認識,行動検出,音声によるインタラクション検出トラックで1位,Ego4D Challenge 2024ではMoment Queriesトラックで1位にランクインした。
論文 参考訳(メタデータ) (2024-07-25T06:03:02Z) - Micro-Expression Recognition by Motion Feature Extraction based on Pre-training [6.015288149235598]
マイクロ圧縮認識タスクのための新しい動き抽出戦略(MoExt)を提案する。
MoExtでは、まず、開始フレームと頂点フレームから形状特徴とテクスチャ特徴を分離して抽出し、その後、両方のフレームの形状特徴に基づいてMEに関連する運動特徴を抽出する。
提案手法の有効性を3つの一般的なデータセットで検証した。
論文 参考訳(メタデータ) (2024-07-10T03:51:34Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Causalainer: Causal Explainer for Automatic Video Summarization [77.36225634727221]
多くのアプリケーションシナリオにおいて、不適切なビデオ要約は大きな影響を与える可能性がある。
説明可能性のモデリングは重要な関心事です。
Causalainerと呼ばれるCausal Explainerがこの問題に対処するために提案されている。
論文 参考訳(メタデータ) (2023-04-30T11:42:06Z) - An Attention-based Method for Action Unit Detection at the 3rd ABAW
Competition [6.229820412732652]
本稿では,2022年の第3回ABAW(Affective Behavior Analysis in-the-Wild)コンテストへの参加について述べる。
映像中の顔の動きを検知する手法を提案する。
ABAWチャレンジ検証セットのマクロF1スコアは0.48であり,ベースラインモデルでは0.39であった。
論文 参考訳(メタデータ) (2022-03-23T14:07:39Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Multi-label Learning with Missing Values using Combined Facial Action
Unit Datasets [0.0]
顔のアクションユニットは、人間の顔の感情を記述するのに使用できる顔のマイクロムーブメントの客観的で標準化された記述を可能にする。
アクションユニットのデータアノテートは高価で時間を要する作業であり、データ状況の不足につながる。
本稿では,欠落ラベルの存在下で学習可能なデータベースとアルゴリズムを組み合わせるためのアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-17T11:58:06Z) - Vision based body gesture meta features for Affective Computing [0.0]
動作のメタ情報を表す新しいタイプの特徴について述べる。
これは、全体的な振る舞いを、集約されたメタ機能の小さなセットとして表現することで、既存の作業とは異なる。
自己評価された苦悩、人格、人口統計のラベルを持つインタビューの65件のビデオ記録のデータセットを新たに紹介する。
論文 参考訳(メタデータ) (2020-02-10T14:38:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。