論文の概要: Towards Motion Turing Test: Evaluating Human-Likeness in Humanoid Robots
- arxiv url: http://arxiv.org/abs/2603.06181v1
- Date: Fri, 06 Mar 2026 11:40:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.581809
- Title: Towards Motion Turing Test: Evaluating Human-Likeness in Humanoid Robots
- Title(参考訳): 運動チューリングテストに向けて:ヒューマノイドロボットにおける人間類似性の評価
- Authors: Mingzhe Li, Mengyin Liu, Zekai Wu, Xincheng Lin, Junsheng Zhang, Ming Yan, Zengye Xie, Changwang Zhang, Chenglu Wen, Lan Xu, Siqi Shen, Cheng Wang,
- Abstract要約: 15のアクションカテゴリにまたがる1000のモーションシーケンスからなるHuman-Humanoid Motionデータセットを提案する。
すべてのモーションシーケンスは、視覚的外観の影響を排除するためにSMPL-X表現に変換される。
収集したデータから、ヒューマノイドの動きが人間の動きと顕著なずれを示すことが明らかとなった。
- 参考スコア(独自算出の注目度): 54.54929302887405
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Humanoid robots have achieved significant progress in motion generation and control, exhibiting movements that appear increasingly natural and human-like. Inspired by the Turing Test, we propose the Motion Turing Test, a framework that evaluates whether human observers can discriminate between humanoid robot and human poses using only kinematic information. To facilitate this evaluation, we present the Human-Humanoid Motion (HHMotion) dataset, which consists of 1,000 motion sequences spanning 15 action categories, performed by 11 humanoid models and 10 human subjects. All motion sequences are converted into SMPL-X representations to eliminate the influence of visual appearance. We recruited 30 annotators to rate the human-likeness of each pose on a 0-5 scale, resulting in over 500 hours of annotation. Analysis of the collected data reveals that humanoid motions still exhibit noticeable deviations from human movements, particularly in dynamic actions such as jumping, boxing, and running. Building on HHMotion, we formulate a human-likeness evaluation task that aims to automatically predict human-likeness scores from motion data. Despite recent progress in multimodal large language models, we find that they remain inadequate for assessing motion human-likeness. To address this, we propose a simple baseline model and demonstrate that it outperforms several contemporary LLM-based methods. The dataset, code, and benchmark will be publicly released to support future research in the community.
- Abstract(参考訳): ヒューマノイドロボットは運動の生成と制御において大きな進歩を遂げており、自然的かつ人間らしく見える動きを見せている。
本研究では,人間の観察者が運動情報のみを用いて人型ロボットと人間のポーズを識別できるかどうかを評価する枠組みである運動チューリングテストを提案する。
この評価を容易にするために,11のヒューマノイドモデルと10人のヒト被験者によって実行される15のアクションカテゴリにまたがる1000の動作シーケンスからなるHHMotionデータセットを提案する。
すべてのモーションシーケンスは、視覚的外観の影響を排除するためにSMPL-X表現に変換される。
それぞれのポーズの人間的類似度を0~5スケールで評価し,500時間以上のアノテーションを得た。
収集したデータを分析してみると、特にジャンプ、ボクシング、ランニングなどの動的な動作において、ヒューマノイドの動きは人間の動きと顕著な違いを示すことが分かる。
HHMotionに基づいて、動作データから人間の類似度スコアを自動的に予測することを目的とした、人間の類似度評価タスクを定式化する。
近年の多モーダルな言語モデルの発展にもかかわらず、動きの人間的類似性を評価するには不十分なままである。
そこで本研究では, 簡易なベースラインモデルを提案し, 現代のLCM法よりも優れていることを示す。
データセット、コード、ベンチマークは、コミュニティにおける将来の研究をサポートするために、一般公開される予定である。
関連論文リスト
- SONIC: Supersizing Motion Tracking for Natural Humanoid Whole-Body Control [85.91101551600978]
モデルキャパシティ,データ,計算のスケールアップにより,自然かつ堅牢な体の動きを生成できる汎用的なヒューマノイドコントローラが得られることを示す。
我々は、ネットワークサイズ、データセットボリューム、計算の3つの軸に沿ってスケーリングすることで、モーショントラッキングのための基礎モデルを構築します。
本研究では,(1)動作追跡を下流タスク実行にブリッジし,自然かつインタラクティブな制御を可能にするリアルタイムユニバーサルキネマティックプランナ,(2)様々な動作入力インタフェースをサポートする統一トークン空間の2つのメカニズムにより,モデルの実用性を示す。
論文 参考訳(メタデータ) (2025-11-11T04:37:40Z) - Massively Multi-Person 3D Human Motion Forecasting with Scene Context [13.197408989895102]
本研究では、長期(10秒)の人間の動きを予測するために、シーン認識型ソーシャルトランスフォーマーモデル(SAST)を提案する。
我々は、時間的畳み込みエンコーダ・デコーダアーキテクチャとTransformerベースのボトルネックを組み合わせることで、動きとシーン情報を効率的に組み合わせることができる。
我々のモデルは、さまざまなメトリクスやユーザスタディにおいて、リアリズムや多様性の観点から、他のアプローチよりも優れています。
論文 参考訳(メタデータ) (2024-09-18T17:58:51Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Action2Motion: Conditioned Generation of 3D Human Motions [28.031644518303075]
我々は3Dで人間の動作シーケンスを生成することを目的としている。
それぞれのサンプル配列は、自然界の体動力学に忠実に類似している。
新しい3DモーションデータセットであるHumanAct12も構築されている。
論文 参考訳(メタデータ) (2020-07-30T05:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。