論文の概要: Investigating Identity Signals in Conversational Facial Dynamics via Disentangled Expression Features
- arxiv url: http://arxiv.org/abs/2510.11223v1
- Date: Mon, 13 Oct 2025 10:06:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.309721
- Title: Investigating Identity Signals in Conversational Facial Dynamics via Disentangled Expression Features
- Title(参考訳): 対角的表情特徴を用いた会話顔面運動における同一性信号の探索
- Authors: Masoumeh Chapariniya, Pierre Vuillecard, Jean-Marc Odobez, Volker Dellwo, Teodora Vukovic,
- Abstract要約: 本研究は,表情の純粋動的成分のみで個人を識別できるかどうかを考察する。
FLAMEの3次元形状モデルを用いて,顔の形状と表情のダイナミックスとの明確な絡み合いを実現する。
本研究は, 社会的認知と臨床評価に影響を及ぼす, 対話型顔力学における人特有の特徴を明らかにするものである。
- 参考スコア(独自算出の注目度): 14.921984307215723
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work investigates whether individuals can be identified solely through the pure dynamical components of their facial expressions, independent of static facial appearance. We leverage the FLAME 3D morphable model to achieve explicit disentanglement between facial shape and expression dynamics, extracting frame-by-frame parameters from conversational videos while retaining only expression and jaw coefficients. On the CANDOR dataset of 1,429 speakers in naturalistic conversations, our Conformer model with supervised contrastive learning achieves 61.14\%accuracy on 1,429-way classification -- 458 times above chance -- demonstrating that facial dynamics carry strong identity signatures. We introduce a drift-to-noise ratio (DNR) that quantifies the reliability of shape expression separation by measuring across-session shape changes relative to within-session variability. DNR strongly negatively correlates with recognition performance, confirming that unstable shape estimation compromises dynamic identification. Our findings reveal person-specific signatures in conversational facial dynamics, with implications for social perception and clinical assessment.
- Abstract(参考訳): 本研究は, 顔の静的な外観によらず, 表情の純粋動的成分のみで個人を識別できるかどうかを考察する。
FLAMEの3次元形状モデルを用いて,顔の形状と表情のダイナミックスとの明確な絡み合いを実現し,フレーム・バイ・フレームパラメータを対話ビデオから抽出し,表情と顎の係数のみを保持する。
自然主義的会話における1,429人の話者のCANDORデータセットでは、教師付きコントラスト学習によるコンフォーマーモデルは、1,429ウェイ分類(確率の458倍)で61.14\%精度を達成した。
そこで本研究では,DNR (Dreat-to-Noise ratio) を導入し,各領域間の形状変化を推定することにより,形状表現分離の信頼性を定量的に評価する。
DNRは認識性能と強く相関し、不安定な形状推定が動的識別を損なうことを確認する。
本研究は, 社会的認知と臨床評価に影響を及ぼす, 対話型顔力学における人特有の特徴を明らかにするものである。
関連論文リスト
- The Personality Illusion: Revealing Dissociation Between Self-Reports & Behavior in LLMs [60.15472325639723]
人格特性は、人間の行動の予測因子として長い間研究されてきた。
近年のLarge Language Models (LLM) は, 人工システムに類似したパターンが出現する可能性を示唆している。
論文 参考訳(メタデータ) (2025-09-03T21:27:10Z) - Robust Dynamic Facial Expression Recognition [6.626374248579249]
本稿では,硬質試料と雑音試料を区別する頑健な手法を提案する。
ビデオの主表現を識別するために、キー表現再サンプリングフレームワークとデュアルストリーム階層ネットワークを提案する。
提案手法は,DFER における現状-Of-The-Art 手法より優れていることを示す。
論文 参考訳(メタデータ) (2025-02-22T07:48:12Z) - How Do You Perceive My Face? Recognizing Facial Expressions in Multi-Modal Context by Modeling Mental Representations [5.895694050664867]
本稿では,単純な分類タスクを超越した新しい表情分類手法を提案する。
本モデルでは,認識された顔を正確に分類し,文脈で顔を観察する際,人間によって知覚される対応する心的表現を合成する。
本研究では,人間の心的表現の近似を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-09-04T09:32:40Z) - Emotional Listener Portrait: Realistic Listener Motion Simulation in
Conversation [50.35367785674921]
リスナーヘッドジェネレーションは、話者から提供される情報を参照して、リスナーの非言語行動を生成することに集中する。
このような反応を生成する上で重要な課題は、会話中のきめ細かい表情の非決定論的性質である。
本稿では,複数の個別な動きコーパスの合成として,各顔の動きを微粒化処理する情緒的リスナー・ポートレート(ELP)を提案する。
ELPモデルは,学習分布からのサンプリングにより,与えられた話者に対する自然な,多様な応答を自動的に生成するだけでなく,所定の姿勢で制御可能な応答を生成することができる。
論文 参考訳(メタデータ) (2023-09-29T18:18:32Z) - Identifying Weight-Variant Latent Causal Models [82.14087963690561]
推移性は潜在因果表現の識別性を阻害する重要な役割を担っている。
いくつかの軽微な仮定の下では、潜伏因果表現が自明な置換とスケーリングまで特定可能であることを示すことができる。
本稿では,その間の因果関係や因果関係を直接学習する構造的caUsAl変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2022-08-30T11:12:59Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Are 3D Face Shapes Expressive Enough for Recognising Continuous Emotions
and Action Unit Intensities? [1.2233362977312945]
この研究は、パラメトリックな3次元顔形状アライメントモデルに基づく有望な代替手段に焦点を当てている。
我々は,最近の3次元顔アライメントモデルであるExpNet, 3DDFA-V2, DECA, EMOCAをベンチマークした。
AUs 4, 6, 10, 12, 25の3次元顔の特徴はAUs4, 6, 10, 12, 25の2次元顔の特徴と同等であるが,AUs全体の特徴ではない。
論文 参考訳(メタデータ) (2022-07-03T20:19:06Z) - A Multi-term and Multi-task Analyzing Framework for Affective Analysis
in-the-wild [0.2216657815393579]
本稿では,ABAW(Affective Behavior Analysis in-the-Wild)2020 Contestに提出された感情認識手法を紹介する。
感情行動には独自の時間枠を持つ観測可能な多くの特徴があるため、複数の最適化された時間窓を導入しました。
時間ごとの感情認識モデルを作成し、これらのモデルをまとめました。
論文 参考訳(メタデータ) (2020-09-29T09:24:29Z) - Unsupervised Learning Facial Parameter Regressor for Action Unit
Intensity Estimation via Differentiable Renderer [51.926868759681014]
骨駆動型顔モデル(BDFM)に基づいて,異なる視点で顔パラメータを予測する枠組みを提案する。
提案するフレームワークは,特徴抽出器,ジェネレータ,顔パラメータ回帰器から構成される。
論文 参考訳(メタデータ) (2020-08-20T09:49:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。