論文の概要: Real-Time Synchronized Interaction Framework for Emotion-Aware Humanoid Robots
- arxiv url: http://arxiv.org/abs/2601.17287v1
- Date: Sat, 24 Jan 2026 03:53:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.93153
- Title: Real-Time Synchronized Interaction Framework for Emotion-Aware Humanoid Robots
- Title(参考訳): 感情認識型ヒューマノイドロボットのためのリアルタイム同期インタラクションフレームワーク
- Authors: Yanrong Chen, Xihan Bian,
- Abstract要約: 音声韻律と全体ジェスチャーを同期するNAOロボットのためのリアルタイムフレームワークを提案する。
シームレスな感覚運動調整を可能にすることにより、コンテキスト認識型社会ロボットの展開が促進される。
- 参考スコア(独自算出の注目度): 0.5156484100374058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As humanoid robots increasingly introduced into social scene, achieving emotionally synchronized multimodal interaction remains a significant challenges. To facilitate the further adoption and integration of humanoid robots into service roles, we present a real-time framework for NAO robots that synchronizes speech prosody with full-body gestures through three key innovations: (1) A dual-channel emotion engine where large language model (LLM) simultaneously generates context-aware text responses and biomechanically feasible motion descriptors, constrained by a structured joint movement library; (2) Duration-aware dynamic time warping for precise temporal alignment of speech output and kinematic motion keyframes; (3) Closed-loop feasibility verification ensuring gestures adhere to NAO's physical joint limits through real-time adaptation. Evaluations show 21% higher emotional alignment compared to rule-based systems, achieved by coordinating vocal pitch (arousal-driven) with upper-limb kinematics while maintaining lower-body stability. By enabling seamless sensorimotor coordination, this framework advances the deployment of context-aware social robots in dynamic applications such as personalized healthcare, interactive education, and responsive customer service platforms.
- Abstract(参考訳): ヒューマノイドロボットが社会シーンにますます導入されるにつれて、感情的に同期されたマルチモーダルインタラクションを実現することは大きな課題である。
1)大言語モデル(LLM)がコンテキスト対応のテキスト応答と生体力学的に実現可能な運動記述子を同時に生成するデュアルチャネル感情エンジン,(2)音声出力とキネマティック・モーション・キーフレームの正確な時間的アライメントのための時間的動的時間ワープ,(3)ジェスチャーがリアルタイム適応によってNAOの物理的関節限界に従うことを保証するクローズドループ実現性検証,の3つの主要な革新を通じて、音声韻律とフルボディジェスチャを同期するNAOロボットのためのリアルタイムフレームワークを提案する。
評価の結果,下肢の安定性を維持しつつ,声道ピッチ(覚醒駆動)と上肢の運動学を協調させることにより,規則に基づくシステムに比べて21%の感情的アライメントが得られた。
このフレームワークは、シームレスな感覚運動の調整を可能にすることで、パーソナライズされたヘルスケア、インタラクティブな教育、応答性のあるカスタマーサービスプラットフォームなどの動的アプリケーションにコンテキスト対応のソーシャルロボットを配置する。
関連論文リスト
- MIBURI: Towards Expressive Interactive Gesture Synthesis [62.45332399212876]
Embodied Conversational Agents (ECA) は、音声、ジェスチャー、表情を通じて人間の対面相互作用をエミュレートすることを目的としている。
既存のECAの解は、人間のような相互作用には適さない剛性で低多様性の運動を生み出す。
MIBURIは,リアルタイム音声対話と同期した表現力のあるフルボディジェスチャーと表情を生成するための,最初のオンライン因果的フレームワークである。
論文 参考訳(メタデータ) (2026-03-03T18:59:51Z) - Rhythm: Learning Interactive Whole-Body Control for Dual Humanoids [25.74949263474117]
我々はRhythmを紹介した。Rhythmは、複雑で物理的に妥当な相互作用のためのデュアルヒューマノイドシステムの現実的な展開を可能にする最初の統一フレームワークである。
本フレームワークは,(1)人間データから実現可能なヒューマノイドインタラクション参照を生成するIAMRモジュール,(2)グラフベースの報酬を通じて結合力学をマスターするIGRLポリシ,(3)デュアルヒューマノイドインタラクションの堅牢な転送を可能にする実世界展開システム,の3つのコアコンポーネントを統合した。
論文 参考訳(メタデータ) (2026-03-03T11:04:56Z) - Physical Human-Robot Interaction for Grasping in Augmented Reality via Rigid-Soft Robot Synergy [43.680646123465316]
ハイブリッド剛性ソフトロボットは、剛性マニピュレータの精度とソフトアームの適合性と適応性を組み合わせる。
本稿では,ハイブリッドソフトロボットの遠隔操作を可能にする,拡張現実(AR)ベースの物理ロボットインタラクションフレームワークを提案する。
論文 参考訳(メタデータ) (2026-02-19T06:56:47Z) - Interact2Ar: Full-Body Human-Human Interaction Generation via Autoregressive Diffusion Models [80.28579390566298]
テキスト条件付き自己回帰拡散モデルであるInteract2Arを導入する。
ハンドキネマティクスは専用のパラレルブランチを通じて組み込まれ、高忠実度フルボディ生成を可能にする。
我々のモデルは、時間的動きの合成、外乱へのリアルタイム適応、ディヤディックからマルチパーソンシナリオへの拡張など、一連のダウンストリームアプリケーションを可能にする。
論文 参考訳(メタデータ) (2025-12-22T18:59:50Z) - Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - ReMoS: 3D Motion-Conditioned Reaction Synthesis for Two-Person Interactions [66.87211993793807]
本稿では,2人のインタラクションシナリオにおいて,人の全身運動を合成する拡散モデルReMoSを提案する。
ペアダンス,忍術,キックボクシング,アクロバティックといった2人のシナリオでReMoSを実証する。
また,全身動作と指の動きを含む2人のインタラクションに対してReMoCapデータセットを寄贈した。
論文 参考訳(メタデータ) (2023-11-28T18:59:52Z) - Skeleton2Humanoid: Animating Simulated Characters for
Physically-plausible Motion In-betweening [59.88594294676711]
現代の深層学習に基づく運動合成アプローチは、合成された運動の物理的妥当性をほとんど考慮していない。
テスト時に物理指向の動作補正を行うシステムSkeleton2Humanoid'を提案する。
挑戦的なLaFAN1データセットの実験は、物理的妥当性と精度の両方の観点から、我々のシステムが先行手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2022-10-09T16:15:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。