論文の概要: X2C: A Dataset Featuring Nuanced Facial Expressions for Realistic Humanoid Imitation
- arxiv url: http://arxiv.org/abs/2505.11146v1
- Date: Fri, 16 May 2025 11:48:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:14.863795
- Title: X2C: A Dataset Featuring Nuanced Facial Expressions for Realistic Humanoid Imitation
- Title(参考訳): X2C:現実的なヒューマノイド模倣のための顔表情を特徴とするデータセット
- Authors: Peizhen Li, Longbing Cao, Xiao-Ming Wu, Runze Yang, Xiaohan Yu,
- Abstract要約: 感情的な人間とロボットのコミュニケーションに従事するヒューマノイドロボットには、現実的な表情を模倣する能力が不可欠である。
現実的なヒューマノイド模倣のためのニュアンス表情を特徴とするデータセットであるX2Cを紹介する。
ヒトからヒトへの表情模倣フレームワークであるX2CNetは、ニュアンス付きヒューマノイド表現と、その根底にある制御値との対応をX2Cから学習する。
- 参考スコア(独自算出の注目度): 27.987188226933846
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to imitate realistic facial expressions is essential for humanoid robots engaged in affective human-robot communication. However, the lack of datasets containing diverse humanoid facial expressions with proper annotations hinders progress in realistic humanoid facial expression imitation. To address these challenges, we introduce X2C (Anything to Control), a dataset featuring nuanced facial expressions for realistic humanoid imitation. With X2C, we contribute: 1) a high-quality, high-diversity, large-scale dataset comprising 100,000 (image, control value) pairs. Each image depicts a humanoid robot displaying a diverse range of facial expressions, annotated with 30 control values representing the ground-truth expression configuration; 2) X2CNet, a novel human-to-humanoid facial expression imitation framework that learns the correspondence between nuanced humanoid expressions and their underlying control values from X2C. It enables facial expression imitation in the wild for different human performers, providing a baseline for the imitation task, showcasing the potential value of our dataset; 3) real-world demonstrations on a physical humanoid robot, highlighting its capability to advance realistic humanoid facial expression imitation. Code and Data: https://lipzh5.github.io/X2CNet/
- Abstract(参考訳): 感情的な人間とロボットのコミュニケーションに従事するヒューマノイドロボットには、現実的な表情を模倣する能力が不可欠である。
しかし、適切なアノテーションを持つ多様なヒューマノイド表情を含むデータセットの欠如は、現実的なヒューマノイド表情模倣の進展を妨げている。
これらの課題に対処するために、現実的なヒューマノイド模倣のためのニュアンス表情を特徴とするデータセットであるX2C(Anything to Control)を導入する。
X2Cでは、次のように貢献します。
1)10万対(画像,制御値)からなる高品質,高多様性,大規模データセット。
各画像は、多種多様な表情を表示するヒューマノイドロボットを描いており、接地真実表現構成を表す30の制御値が注釈付けされている。
2) X2CNetは,ヒトからヒトへの表情模倣フレームワークであり,その基礎となる制御値をX2Cから学習する。
それは、異なる人間のパフォーマーのための野生での表情の模倣を可能にし、模倣タスクのベースラインを提供し、私たちのデータセットの潜在的な価値を示します。
3) 実世界におけるヒューマノイドロボットの実演では, リアルなヒューマノイド表情模倣を推し進める能力を強調した。
コードとデータ:https://lipzh5.github.io/X2CNet/
関連論文リスト
- Learning from Massive Human Videos for Universal Humanoid Pose Control [46.417054298537195]
本稿では,2000万以上のヒューマノイドロボットの大規模データセットであるHumanoid-Xを紹介する。
我々は、テキスト命令を入力として受け取り、対応する動作を出力してヒューマノイドロボットを制御する、大きなヒューマノイドモデルUH-1を訓練する。
私たちのスケーラブルなトレーニングアプローチは、テキストベースのヒューマノイド制御の優れた一般化につながります。
論文 参考訳(メタデータ) (2024-12-18T18:59:56Z) - Towards Localized Fine-Grained Control for Facial Expression Generation [54.82883891478555]
人間、特にその顔は、豊かな表現と意図を伝える能力のために、コンテンツ生成の中心である。
現在の生成モデルは、主に平らな中立表現と文字なしの笑顔を認証なしで生成する。
顔生成における表情制御におけるAU(アクションユニット)の利用を提案する。
論文 参考訳(メタデータ) (2024-07-25T18:29:48Z) - CSTalk: Correlation Supervised Speech-driven 3D Emotional Facial Animation Generation [13.27632316528572]
音声駆動の3D顔アニメーション技術は長年開発されてきたが、実用的応用には期待できない。
主な課題は、データ制限、唇のアライメント、表情の自然さである。
本稿では,顔の動きの異なる領域間の相関をモデル化し,生成モデルの訓練を監督し,現実的な表現を生成するCSTalkという手法を提案する。
論文 参考訳(メタデータ) (2024-04-29T11:19:15Z) - Driving Animatronic Robot Facial Expression From Speech [7.8799497614708605]
本稿では,音声入力からアニマトロニクスロボットの表情を駆動する,新しいスキン中心のアプローチを提案する。
提案手法は線形スキン (LBS) を統一表現として用い, エンボディメント設計とモーション合成の両面での革新を導く。
このアプローチは、1台のNvidia GTX 4090上で4000fps以上のリアルタイムにアニマトロニクスの顔に非常にリアルな表情を生成する能力を示す。
論文 参考訳(メタデータ) (2024-03-19T12:11:57Z) - RealDex: Towards Human-like Grasping for Robotic Dexterous Hand [64.33746404551343]
本稿では,人間の行動パターンを取り入れた手の動きを正確に把握する先駆的データセットであるRealDexを紹介する。
RealDexは、現実のシナリオにおける認識、認識、操作を自動化するためのヒューマノイドロボットを進化させる上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T14:59:46Z) - CapHuman: Capture Your Moments in Parallel Universes [60.06408546134581]
CapHumanという新しいフレームワークを紹介します。
CapHumanはアイデンティティ機能をエンコードし、それを潜在空間に整列させることを学ぶ。
モデルに人間の頭部を柔軟で3D一貫性のある方法で制御させる前に、3D顔を導入する。
論文 参考訳(メタデータ) (2024-02-01T14:41:59Z) - XAGen: 3D Expressive Human Avatars Generation [76.69560679209171]
XAGenは人体、顔、手を表現的に制御できる人間のアバターのための最初の3D生成モデルである。
身体, 顔, 手の合成を両立させる多部レンダリング手法を提案する。
実験によると、XAGenは現実主義、多様性、表現力のある制御能力の点で最先端の手法を超越している。
論文 参考訳(メタデータ) (2023-11-22T18:30:42Z) - Towards Inclusive HRI: Using Sim2Real to Address Underrepresentation in
Emotion Expression Recognition [5.819149317261972]
我々は、より透明で包括的な方法で人間を知覚できるシステムを構築することを目指している。
我々は、Sim2Realアプローチを使い、3Dシミュレーションされた人間のモデルスイートを使用します。
4536個のサンプルを含む合成データセットを用いて、小さな動的感情表現データセットを増強することにより、精度15%の改善を実現した。
論文 参考訳(メタデータ) (2022-08-15T23:37:13Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - Smile Like You Mean It: Driving Animatronic Robotic Face with Learned
Models [11.925808365657936]
人間のような社会ロボットを構築するには、知的で一般化可能な表情を生成する能力が不可欠である。
顔模倣のための視覚に基づく自己教師型学習フレームワークを開発した。
本手法は, 多様な被験者に対して, 正確かつ多様な顔の模倣を可能にする。
論文 参考訳(メタデータ) (2021-05-26T17:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。