論文の概要: Social Agent: Mastering Dyadic Nonverbal Behavior Generation via Conversational LLM Agents
- arxiv url: http://arxiv.org/abs/2510.04637v1
- Date: Mon, 06 Oct 2025 09:41:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.785922
- Title: Social Agent: Mastering Dyadic Nonverbal Behavior Generation via Conversational LLM Agents
- Title(参考訳): ソーシャルエージェント:会話型LLMエージェントによる非言語行動生成をマスターする
- Authors: Zeyi Zhang, Yanju Zhou, Heyuan Yao, Tenglong Ao, Xiaohang Zhan, Libin Liu,
- Abstract要約: ソーシャルエージェント(Social Agent)は、現実的で文脈的に適切な非言語行為をダイアディック会話で合成するための新しいフレームワークである。
本研究では,Large Language Model (LLM) によって駆動されるエージェントシステムを構築し,会話の流れを指示し,双方の参加者に対して適切な対話行動を決定する。
本稿では,音声信号から協調した動きを合成する自己回帰拡散モデルに基づく,新しい対人ジェスチャ生成モデルを提案する。
- 参考スコア(独自算出の注目度): 13.902411927285328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Social Agent, a novel framework for synthesizing realistic and contextually appropriate co-speech nonverbal behaviors in dyadic conversations. In this framework, we develop an agentic system driven by a Large Language Model (LLM) to direct the conversation flow and determine appropriate interactive behaviors for both participants. Additionally, we propose a novel dual-person gesture generation model based on an auto-regressive diffusion model, which synthesizes coordinated motions from speech signals. The output of the agentic system is translated into high-level guidance for the gesture generator, resulting in realistic movement at both the behavioral and motion levels. Furthermore, the agentic system periodically examines the movements of interlocutors and infers their intentions, forming a continuous feedback loop that enables dynamic and responsive interactions between the two participants. User studies and quantitative evaluations show that our model significantly improves the quality of dyadic interactions, producing natural, synchronized nonverbal behaviors.
- Abstract(参考訳): 本稿では,現実的かつ文脈的に適切な非言語行為をダイアディック会話で合成する新しいフレームワークであるSocial Agentを提案する。
本研究では,Large Language Model (LLM) によって駆動されるエージェントシステムを構築し,会話の流れを指示し,双方の参加者に対して適切な対話行動を決定する。
さらに,音声信号から協調した動きを合成する自己回帰拡散モデルに基づく,新しい対人ジェスチャ生成モデルを提案する。
エージェントシステムの出力はジェスチャジェネレータの高レベルガイダンスに変換され、動作レベルと動作レベルの両方で現実的な動きをもたらす。
さらに、エージェントシステムは、定期的にインターロケータの動きを調べ、その意図を推測し、2人の参加者間の動的かつ応答的な相互作用を可能にする継続的なフィードバックループを形成する。
ユーザスタディと定量的評価により、我々のモデルはダイアド相互作用の質を著しく改善し、自然に同期された非言語行動を生み出すことが示された。
関連論文リスト
- MoReact: Generating Reactive Motion from Textual Descriptions [57.642436102978245]
MoReactは拡散に基づく手法で、グローバルな軌跡と局所的な動きを連続的に引き離すように設計されている。
2人の動作データセットから適応したデータを用いて,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-09-28T14:31:41Z) - InterSyn: Interleaved Learning for Dynamic Motion Synthesis in the Wild [65.29569330744056]
本稿では,リアルなインタラクション動作の生成を目標とする新しいフレームワークであるInterleaved Learning for Motion Synthesis(InterSyn)を提案する。
InterSynはインターリーブド・ラーニング・ストラテジーを用いて、現実世界のシナリオに固有の自然な動的相互作用とニュアンスド・コーディネーションを捉えている。
論文 参考訳(メタデータ) (2025-08-14T03:00:06Z) - Inter-Diffusion Generation Model of Speakers and Listeners for Effective Communication [4.49451692966442]
本稿では,効果的なコミュニケーションのための話者と聞き手の拡散間生成モデルを提案する。
初めて、リスナーのフルボディジェスチャーを生成フレームワークに統合する。
論文 参考訳(メタデータ) (2025-05-08T07:00:58Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Dyadic Interaction Modeling for Social Behavior Generation [6.626277726145613]
ダイアディックインタラクションにおける3次元顔の動きを効果的に生成するための枠組みを提案する。
私たちのフレームワークの中心は、事前トレーニングアプローチであるDydic Interaction Modeling(DIM)です。
実験は、リスナー動作の生成において、我々のフレームワークが優れていることを示す。
論文 参考訳(メタデータ) (2024-03-14T03:21:33Z) - A Probabilistic Model Of Interaction Dynamics for Dyadic Face-to-Face
Settings [1.9544213396776275]
我々は,対面設定における対の参加者間の相互作用のダイナミクスを捉える確率論的モデルを開発した。
この相互作用エンコーディングは、あるエージェントの将来のダイナミクスを予測する際に、生成に影響を与えるために使用される。
我々のモデルは, 相互作用する力学に基づいて, モード間のデライン化に成功していることを示す。
論文 参考訳(メタデータ) (2022-07-10T23:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。