論文の概要: Towards Context-Aware Human-like Pointing Gestures with RL Motion Imitation
- arxiv url: http://arxiv.org/abs/2509.12880v1
- Date: Tue, 16 Sep 2025 09:30:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.006352
- Title: Towards Context-Aware Human-like Pointing Gestures with RL Motion Imitation
- Title(参考訳): RLモーション・イミテーションを用いたヒューマンライク・ポインティング・ジェスチャのコンテキスト認識に向けて
- Authors: Anna Deichler, Siyang Wang, Simon Alexanderson, Jonas Beskow,
- Abstract要約: 多様なスタイル,手,空間的対象をカバーする人間の指さし動作のモーションキャプチャーデータセットを提案する。
動作模倣による強化学習を用いて, 精度を最大化しつつ, 人間の様相を再現する政策を訓練する。
- 参考スコア(独自算出の注目度): 19.868403110796105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pointing is a key mode of interaction with robots, yet most prior work has focused on recognition rather than generation. We present a motion capture dataset of human pointing gestures covering diverse styles, handedness, and spatial targets. Using reinforcement learning with motion imitation, we train policies that reproduce human-like pointing while maximizing precision. Results show our approach enables context-aware pointing behaviors in simulation, balancing task performance with natural dynamics.
- Abstract(参考訳): ポインティングはロボットとのインタラクションの重要なモードであるが、ほとんどの以前の研究は生成ではなく認識に焦点を当てていた。
多様なスタイル,手,空間的対象をカバーする人間の指さし動作のモーションキャプチャーデータセットを提案する。
動作模倣による強化学習を用いて, 精度を最大化しつつ, 人間の様相を再現する政策を訓練する。
結果より,本手法は,タスク性能と自然力学のバランスをとることにより,シミュレーションにおけるコンテキスト対応のポインティング動作を可能にする。
関連論文リスト
- Learning to Generate Pointing Gestures in Situated Embodied Conversational Agents [19.868403110796105]
本稿では,模倣と強化学習を組み合わせることで,具体的エージェントのポインティングジェスチャーを生成する枠組みを提案する。
我々は,客観的指標と仮想空間的参照ゲームの両方において,教師付き学習と検索のベースラインに対するアプローチを評価する。
論文 参考訳(メタデータ) (2025-09-15T23:15:15Z) - EMOTION: Expressive Motion Sequence Generation for Humanoid Robots with In-Context Learning [10.266351600604612]
本稿では,ヒューマノイドロボットにおける表現型動き列を生成するためのEMOTIONというフレームワークを提案する。
本研究では,EMOTIONが生成する動作の自然性と理解性を比較したオンラインユーザ研究を行い,その人間フィードバックバージョンであるEMOTION++について述べる。
論文 参考訳(メタデータ) (2024-10-30T17:22:45Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - AQ-GT: a Temporally Aligned and Quantized GRU-Transformer for Co-Speech
Gesture Synthesis [0.0]
本稿では,量子化パイプラインを用いた生成逆数ネットワークを用いて,事前学習した部分的ジェスチャー列に対するアプローチを提案する。
空間表現を直接ベクトル表現にマッピングするのではなく、潜在空間表現のマッピングを学習することにより、非常に現実的で表現力のあるジェスチャーの生成を促進する。
論文 参考訳(メタデータ) (2023-05-02T07:59:38Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - Modelling Human Kinetics and Kinematics during Walking using
Reinforcement Learning [0.0]
実世界の人間の運動に匹敵する3次元歩行運動をシミュレーションにより自動生成する手法を開発した。
本手法は, 異なる運動構造と歩行特性を持つヒト-サブジェクトをまたいでよく一般化することを示す。
論文 参考訳(メタデータ) (2021-03-15T04:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。