論文の概要: ReactDiff: Fundamental Multiple Appropriate Facial Reaction Diffusion Model
- arxiv url: http://arxiv.org/abs/2510.04712v1
- Date: Mon, 06 Oct 2025 11:30:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.828791
- Title: ReactDiff: Fundamental Multiple Appropriate Facial Reaction Diffusion Model
- Title(参考訳): ReactDiff: 相応の顔反応拡散モデル
- Authors: Luo Cheng, Song Siyang, Yan Siyuan, Yu Zhen, Ge Zongyuan,
- Abstract要約: 多様な顔反応を生成するための新しい時間拡散フレームワークであるReactDiffを提案する。
私たちの重要な洞察は、もっともらしい人間の反応は、時間の経過とともに滑らかさとコヒーレンスを示すということです。
提案手法は, 最先端の反応品質を達成し, 多様性と反応適性に優れる。
- 参考スコア(独自算出の注目度): 0.9786690381850356
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The automatic generation of diverse and human-like facial reactions in dyadic dialogue remains a critical challenge for human-computer interaction systems. Existing methods fail to model the stochasticity and dynamics inherent in real human reactions. To address this, we propose ReactDiff, a novel temporal diffusion framework for generating diverse facial reactions that are appropriate for responding to any given dialogue context. Our key insight is that plausible human reactions demonstrate smoothness, and coherence over time, and conform to constraints imposed by human facial anatomy. To achieve this, ReactDiff incorporates two vital priors (spatio-temporal facial kinematics) into the diffusion process: i) temporal facial behavioral kinematics and ii) facial action unit dependencies. These two constraints guide the model toward realistic human reaction manifolds, avoiding visually unrealistic jitters, unstable transitions, unnatural expressions, and other artifacts. Extensive experiments on the REACT2024 dataset demonstrate that our approach not only achieves state-of-the-art reaction quality but also excels in diversity and reaction appropriateness.
- Abstract(参考訳): ダイアディック対話における多種多様な人間の顔反応の自動生成は、人間とコンピュータのインタラクションシステムにとって重要な課題である。
既存の手法では、実際の人間の反応に固有の確率性と力学をモデル化できない。
これを解決するために,任意の会話コンテキストに対応するのに適した多様な顔反応を生成するための新しい時間拡散フレームワークReactDiffを提案する。
我々の重要な洞察は、人間のもっともらしい反応は、時間の経過とともに滑らかさとコヒーレンスを示し、人間の顔解剖によって課される制約に従っているということです。
これを実現するためにReactDiffでは,2つの重要な前駆体(時空間運動学)を拡散プロセスに組み込んでいる。
一 時間的顔行動運動学及び
二 顔行動単位の依存関係
これらの2つの制約は、視覚的に非現実的なジッタ、不安定な遷移、不自然な表現、その他の人工物を避けることによって、現実的な人間の反応多様体に向けてモデルを導く。
REACT2024データセットの大規模な実験は、我々のアプローチが最先端の反応品質を達成するだけでなく、多様性と反応適性も優れていることを示した。
関連論文リスト
- MoReact: Generating Reactive Motion from Textual Descriptions [57.642436102978245]
MoReactは拡散に基づく手法で、グローバルな軌跡と局所的な動きを連続的に引き離すように設計されている。
2人の動作データセットから適応したデータを用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-09-28T14:31:41Z) - Latent Behavior Diffusion for Sequential Reaction Generation in Dyadic Setting [11.016004057765185]
ダイアド反応生成タスクは、会話相手の行動と密接に一致した反応反応を伴う。
本稿では,文脈認識型オートエンコーダと拡散型条件生成器を組み合わせた新しい手法である潜時行動拡散モデルを提案する。
実験により, 従来の手法と比較して, 動的反応合成タスクにおいて, 優れた性能を実現するためのアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2025-05-12T09:22:27Z) - Ready-to-React: Online Reaction Policy for Two-Character Interaction Generation [82.73098356401725]
本稿では,過去観測された動きに基づいて次のキャラクターのポーズを生成するためのオンライン反応ポリシーであるReady-to-Reactを提案する。
各キャラクターは独自の反応ポリシーを「脳」として持っており、実際の人間のようにストリーミングで対話することができる。
われわれのアプローチはスパース信号で制御でき、VRや他のオンラインインタラクティブ環境にも適している。
論文 参考訳(メタデータ) (2025-02-27T18:40:30Z) - PhysReaction: Physically Plausible Real-Time Humanoid Reaction Synthesis via Forward Dynamics Guided 4D Imitation [19.507619255773125]
物理的に可塑性なヒト様反応を生成するフォワードダイナミクスガイド4Dイミテーション法を提案する。
学習されたポリシーは、物理的に可塑性で人間に似た反応をリアルタイムで生成し、速度(x33)と反応の質を著しく改善する。
論文 参考訳(メタデータ) (2024-04-01T12:21:56Z) - ReGenNet: Towards Human Action-Reaction Synthesis [87.57721371471536]
我々は、人間と人間の相互作用の非対称、動的、同期、および詳細な性質を分析する。
本研究では,人間の行動に条件付けされた人間の反応を生成するための,最初のマルチセットヒト行動反応ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-03-18T15:33:06Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - ReactFace: Online Multiple Appropriate Facial Reaction Generation in Dyadic Interactions [46.66378299720377]
ダイアドインタラクションでは、聴取者の顔反応を予測することは困難であり、同じ話者の振る舞いに応じて異なる反応が適している可能性がある。
本稿では,外挿や予測問題としてタスクを再構築し,複数の異なる顔反応を生成する新しいフレームワーク(ReactFace)を提案する。
論文 参考訳(メタデータ) (2023-05-25T05:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。