論文の概要: Modeling human intention inference in continuous 3D domains by inverse
planning and body kinematics
- arxiv url: http://arxiv.org/abs/2112.00903v1
- Date: Thu, 2 Dec 2021 00:55:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 16:53:00.065281
- Title: Modeling human intention inference in continuous 3D domains by inverse
planning and body kinematics
- Title(参考訳): 逆計画と身体運動学による連続3次元領域における人間の意図推論のモデル化
- Authors: Yingdong Qian, Marta Kryven, Tao Gao, Hanbyul Joo, Josh Tenenbaum
- Abstract要約: 本稿では,3次元運動の領域における目標推定モデルを評価するための計算フレームワークについて述べる。
我々は,人間の観察者が目標に到達した俳優の意図を注意散らしの中で推測する,新たな目標到達タスクを用いた3つの行動実験において,我々の枠組みを評価する。
このようなシナリオでは,人間の観察者は逆体キネマティクスに依存しており,身体キネマティクスをモデル化することで推論アルゴリズムの性能を向上させることが示唆されている。
- 参考スコア(独自算出の注目度): 31.421686048250827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How to build AI that understands human intentions, and uses this knowledge to
collaborate with people? We describe a computational framework for evaluating
models of goal inference in the domain of 3D motor actions, which receives as
input the 3D coordinates of an agent's body, and of possible targets, to
produce a continuously updated inference of the intended target. We evaluate
our framework in three behavioural experiments using a novel Target Reaching
Task, in which human observers infer intentions of actors reaching for targets
among distracts. We describe Generative Body Kinematics model, which predicts
human intention inference in this domain using Bayesian inverse planning and
inverse body kinematics. We compare our model to three heuristics, which
formalize the principle of least effort using simple assumptions about the
actor's constraints, without the use of inverse planning. Despite being more
computationally costly, the Generative Body Kinematics model outperforms the
heuristics in certain scenarios, such as environments with obstacles, and at
the beginning of reaching actions while the actor is relatively far from the
intended target. The heuristics make increasingly accurate predictions during
later stages of reaching actions, such as, when the intended target is close,
and can be inferred by extrapolating the wrist trajectory. Our results identify
contexts in which inverse body kinematics is useful for intention inference. We
show that human observers indeed rely on inverse body kinematics in such
scenarios, suggesting that modeling body kinematic can improve performance of
inference algorithms.
- Abstract(参考訳): 人間の意図を理解し、この知識を使って人と協力するAIを構築するには?
本稿では,エージェントの身体の3d座標入力として受け取られる3次元運動動作の領域において,目標推定のモデルを評価するための計算フレームワークについて述べる。
我々は,新たな目標到達タスクを用いて3つの行動実験において,人間の観察者が注意をそそる対象に到達する俳優の意図を推測する枠組みを評価する。
本稿では,ベイズ逆計画法と逆ボディーキネマティクスを用いて,この領域における人間の意図推論を予測する生成ボディーキネマティクスモデルについて述べる。
モデルと3つのヒューリスティックを比較し,逆計画を用いることなく,アクターの制約に関する単純な仮定を用いて最小努力の原理を定式化する。
より計算コストがかかるにもかかわらず、生成体キネマティクスモデルは、障害のある環境や、アクターが意図した目標から比較的離れている間にアクションに到達する開始時に、特定のシナリオにおいてヒューリスティックよりも優れる。
ヒューリスティックスは、意図された目標が近い場合など、行動の後半の段階でより正確な予測を行い、手首の軌道を外挿することで推測することができる。
本研究は,逆体運動学が意図推論に有用である文脈を同定する。
このようなシナリオでは,人間の観察者は逆体キネマティクスに依存しており,身体キネマティクスをモデル化することで推論アルゴリズムの性能を向上させることが示唆されている。
関連論文リスト
- Kinematics-based 3D Human-Object Interaction Reconstruction from Single View [10.684643503514849]
既存の方法は、単に身体のポーズを単に屋内データセットのネットワークトレーニングに依存するだけである。
本研究では,人体の関節を人体接触領域へ正確に駆動するキネマティクスに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T05:44:35Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - Multimodal Sense-Informed Prediction of 3D Human Motions [16.71099574742631]
本研究は,2つのモーダル情報に対して高忠実度を生成するマルチモーダル・インフォームド・モーション・予測手法を提案する。
視線情報は人間の意図と見なされ、動きとシーンの特徴が組み合わさって、世代を監督するために第3の意図に注意を向ける。
実世界の2つのベンチマークにおいて,提案手法は3次元人間のポーズと軌道予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-05-05T12:38:10Z) - WANDR: Intention-guided Human Motion Generation [67.07028110459787]
我々は,アバターの初期ポーズとゴールの3D位置を取り,ゴール位置にエンドエフェクタ(抵抗)を配置する自然な人間の動きを生成するデータ駆動モデルであるWADRを紹介する。
インテンションはエージェントをゴールに誘導し、サブゴールやモーションパス全体を定義することなく、新しい状況にインタラクティブに世代を適応させる。
提案手法を広範に評価し,3次元目標に到達した自然および長期の動作と,見当たらない目標位置を生成できることを実証する。
論文 参考訳(メタデータ) (2024-04-23T10:20:17Z) - Controllable Human-Object Interaction Synthesis [77.56877961681462]
本研究では,3次元シーンにおける同期物体の動きと人間の動きを生成するための制御可能な人間-物体相互作用合成(CHOIS)を提案する。
ここでは,高レベルな計画から効果的に抽出できるスタイルや意図を言語記述が通知し,シーン内の動きをグラウンド化する。
我々のモジュールは経路計画モジュールとシームレスに統合され、3D環境における長期的相互作用の生成を可能にします。
論文 参考訳(メタデータ) (2023-12-06T21:14:20Z) - Goal-directed Planning and Goal Understanding by Active Inference:
Evaluation Through Simulated and Physical Robot Experiments [3.7660066212240757]
目標指向の行動計画が自由エネルギー原理を用いて定式化可能であることを示す。
提案するモデルは、変動的リカレントニューラルネットワークモデルに基づいて構築される。
論文 参考訳(メタデータ) (2022-02-21T03:48:35Z) - Investigating Pose Representations and Motion Contexts Modeling for 3D
Motion Prediction [63.62263239934777]
歴史的ポーズシーケンスから人間の動きを予測することは、機械が人間と知的な相互作用を成功させるために不可欠である。
本研究では,様々なポーズ表現に関する詳細な研究を行い,その動作予測課題に対する効果に着目した。
AHMR(Attentive Hierarchical Motion Recurrent Network)と呼ばれる新しいRNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-30T10:45:22Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - 3D Pose Estimation and Future Motion Prediction from 2D Images [26.28886209268217]
本稿では,3次元人物のポーズを推定し,RGB画像列から将来の3次元動作を予測するという,高相関な課題に共同で取り組むことを検討する。
リー代数のポーズ表現に基づいて、人間の運動キネマティクスを自然に保存する新しい自己投射機構が提案されている。
論文 参考訳(メタデータ) (2021-11-26T01:02:00Z) - Self-Attentive 3D Human Pose and Shape Estimation from Videos [82.63503361008607]
3D人間のポーズと形状推定のためのビデオベースの学習アルゴリズムを紹介します。
ビデオの時間情報を利用して自己着脱モジュールを提案する。
本手法を3DPW, MPI-INF-3DHP, Human3.6Mデータセット上で評価した。
論文 参考訳(メタデータ) (2021-03-26T00:02:19Z) - Kinematic-Structure-Preserved Representation for Unsupervised 3D Human
Pose Estimation [58.72192168935338]
大規模インスタディオデータセットの監視を用いて開発された人間のポーズ推定モデルの一般化可能性については疑問が残る。
本稿では,2対あるいは2対の弱い監督者によって抑制されない,新しいキネマティック構造保存型非教師付き3次元ポーズ推定フレームワークを提案する。
提案モデルでは,前方運動学,カメラ投影,空間マップ変換という3つの連続的な微分可能変換を用いる。
論文 参考訳(メタデータ) (2020-06-24T23:56:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。