論文の概要: E-React: Towards Emotionally Controlled Synthesis of Human Reactions
- arxiv url: http://arxiv.org/abs/2508.06093v1
- Date: Fri, 08 Aug 2025 07:36:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.124734
- Title: E-React: Towards Emotionally Controlled Synthesis of Human Reactions
- Title(参考訳): E-React: 感情制御によるヒト反応の合成を目指して
- Authors: Chen Zhu, Buzhen Huang, Zijing Wu, Binghui Zuo, Yangang Wang,
- Abstract要約: 既存の人間の動き生成フレームワークは感情の影響を考慮していない。
異なる感情的手がかりに反応して多様な反応運動を発生させるという,新しい課題を導入する。
- 参考スコア(独自算出の注目度): 27.208537767510617
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Emotion serves as an essential component in daily human interactions. Existing human motion generation frameworks do not consider the impact of emotions, which reduces naturalness and limits their application in interactive tasks, such as human reaction synthesis. In this work, we introduce a novel task: generating diverse reaction motions in response to different emotional cues. However, learning emotion representation from limited motion data and incorporating it into a motion generation framework remains a challenging problem. To address the above obstacles, we introduce a semi-supervised emotion prior in an actor-reactor diffusion model to facilitate emotion-driven reaction synthesis. Specifically, based on the observation that motion clips within a short sequence tend to share the same emotion, we first devise a semi-supervised learning framework to train an emotion prior. With this prior, we further train an actor-reactor diffusion model to generate reactions by considering both spatial interaction and emotional response. Finally, given a motion sequence of an actor, our approach can generate realistic reactions under various emotional conditions. Experimental results demonstrate that our model outperforms existing reaction generation methods. The code and data will be made publicly available at https://ereact.github.io/
- Abstract(参考訳): 感情は日々の人間の相互作用において不可欠な要素である。
既存の人間の運動生成フレームワークは感情の影響を考慮せず、自然さを減らし、人間の反応合成のような対話的なタスクへの応用を制限する。
本研究では,異なる感情的手がかりに反応して多様な反応運動を発生させる,新しい課題を紹介する。
しかし、限られた動きデータから感情表現を学習し、それを運動生成フレームワークに組み込むことは難しい問題である。
上記の障害に対処するため,アクター-リアクター拡散モデルに先立って半教師付き感情を導入し,感情駆動型反応合成を容易にする。
具体的には、短いシーケンス内でのモーションクリップが同じ感情を共有する傾向にあるという観察に基づいて、まず、前もって感情を訓練するための半教師付き学習フレームワークを考案する。
これにより,空間的相互作用と感情的反応の両方を考慮することで,アクター・リアクター拡散モデルをさらに訓練する。
最後に,アクターの動作シーケンスを考慮し,様々な情緒的条件下で現実的な反応を生成できる。
実験により,本モデルが既存の反応生成法より優れていることが示された。
コードとデータはhttps://ereact.github.io/で公開されます。
関連論文リスト
- HERO: Human Reaction Generation from Videos [54.602947113980655]
HEROは、videOsからのHuman rEaction geneRationのフレームワークである。
HEROはビデオのグローバルレベルとフレームレベルの局所表現の両方を考慮し、インタラクションの意図を抽出する。
局所的な視覚表現は、ビデオに固有の動的特性を最大限に活用するために、モデルに連続的に注入される。
論文 参考訳(メタデータ) (2025-03-11T10:39:32Z) - ReGenNet: Towards Human Action-Reaction Synthesis [87.57721371471536]
我々は、人間と人間の相互作用の非対称、動的、同期、および詳細な性質を分析する。
本研究では,人間の行動に条件付けされた人間の反応を生成するための,最初のマルチセットヒト行動反応ベンチマークを提案する。
論文 参考訳(メタデータ) (2024-03-18T15:33:06Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - Empathetic Response Generation via Emotion Cause Transition Graph [29.418144401849194]
共感的対話は、感情的要因(例えば、感情の状態)と認知的要因(例えば、感情の原因)の両方の知覚を必要とする人間のような行動である。
共感対話における2つのターン間の感情原因の自然な遷移を明示的にモデル化する感情原因遷移グラフを提案する。
このグラフでは、次のターンで生じる感情の概念語を、特殊に設計された概念認識デコーダによって予測し、使用し、共感的な応答を生成する。
論文 参考訳(メタデータ) (2023-02-23T05:51:17Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - EAMM: One-Shot Emotional Talking Face via Audio-Based Emotion-Aware
Motion Model [32.19539143308341]
本研究では,感情認識運動モデル(EAMM)を提案する。
両モジュールの結果を組み込むことで,任意の被験者に対して良好な話し声を生成できる。
論文 参考訳(メタデータ) (2022-05-30T17:39:45Z) - Emotion Recognition under Consideration of the Emotion Component Process
Model [9.595357496779394]
我々はScherer (2005) による感情成分プロセスモデル (CPM) を用いて感情コミュニケーションを説明する。
CPMは、感情は、出来事、すなわち主観的感情、認知的評価、表現、生理的身体反応、動機的行動傾向に対する様々なサブコンポーネントの協調過程であると述べている。
Twitter上での感情は、主に出来事の説明や主観的な感情の報告によって表現されているのに対し、文献では、著者はキャラクターが何をしているかを記述し、解釈を読者に任せることを好む。
論文 参考訳(メタデータ) (2021-07-27T15:53:25Z) - Emotion Eliciting Machine: Emotion Eliciting Conversation Generation
based on Dual Generator [18.711852474600143]
ユーザのポジティブな感情を誘発する応答を生成することを目的としたポジティブな感情抽出の問題を研究する。
この問題に対処するために,弱い教師付き感情除去機械(EEM)を提案する。
EEMは、ポジティブな感情抽出で応答を生成する際に既存のモデルより優れています。
論文 参考訳(メタデータ) (2021-05-18T03:19:25Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。