論文の概要: 3D Head-Position Prediction in First-Person View by Considering Head
Pose for Human-Robot Eye Contact
- arxiv url: http://arxiv.org/abs/2103.06417v1
- Date: Thu, 11 Mar 2021 02:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-12 14:53:23.736231
- Title: 3D Head-Position Prediction in First-Person View by Considering Head
Pose for Human-Robot Eye Contact
- Title(参考訳): ヒト・ロボット眼球接触の頭部ポースを考慮した第1者視点の3次元頭部ポジション予測
- Authors: Yuki Tamaru, Yasunori Ozaki, Yuki Okafuji, Jun Baba, Junya Nakanishi,
Yuichiro Yoshikawa
- Abstract要約: 頭部の姿勢を考慮したファーストパーソン視点からの3次元頭部位置予測の精度を向上させることができる。
実験の結果,頭部ポーズを考慮すれば3次元頭部位置予測の精度が向上することがわかった。
- 参考スコア(独自算出の注目度): 6.134157721481205
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: For a humanoid robot to make eye contact to initiate communication with a
human, it is necessary to estimate the human's head position.However, eye
contact becomes difficult due to the mechanical delay of the robot while the
subject with whom the robot is interacting with is moving. Owing to these
issues, it is important to perform head-position prediction to mitigate the
effect of the delay in the robot's motion. Based on the fact that humans turn
their heads before changing direction while walking, we hypothesized that the
accuracy of three-dimensional(3D) head-position prediction from the
first-person view can be improved by considering the head pose into account.We
compared our method with the conventional Kalman filter-based method, and found
our method to be more accurate. The experimental results show that considering
the head pose helps improve the accuracy of 3D head-position prediction.
- Abstract(参考訳): ヒューマノイドロボットが人間とのコミュニケーションを開始するためには、人間の頭部の位置を推定する必要がありますが、ロボットが対話する対象が移動している間、ロボットの機械的な遅延のために目の接触は困難になります。
これらの課題から,ロボットの動きの遅延の影響を軽減するために,頭部位置予測を行うことが重要である。
歩行中の方向転換前に頭部を回すことにより,頭部の姿勢を考慮した一人称視点から3次元(3d)頭部位置予測の精度を向上させることができると仮定し,従来のカルマンフィルタを用いた手法と比較し,精度の向上が図られた。
実験の結果,頭部ポーズを考慮すれば3次元頭部位置予測の精度が向上することがわかった。
関連論文リスト
- Anticipation through Head Pose Estimation: a preliminary study [0.2209921757303168]
本稿では,行動目標を理解し,予測するための視覚的手がかりとして頭部ポーズを用いた予備実験について論じる。
短期的な予測が可能であることを示し、人間とロボットの相互作用に将来の応用の基礎を築いていく。
論文 参考訳(メタデータ) (2024-08-10T10:58:33Z) - ContactHandover: Contact-Guided Robot-to-Human Object Handover [23.093164853009547]
本稿では,接触誘導獲得フェーズと物体の伝達フェーズの2つのフェーズからなるヒューマンハンドオーバシステムを提案する。
把握フェーズでは、ContactHandoverは6-DoFロボットのグリップポーズと、オブジェクト上の人間の接触点の3D割当マップの両方を予測する。
配達段階では、人間の腕関節トルクと変位を最小化しつつ、人間に近い接触点を最大化してロボットエンドエフェクタポーズを算出する。
論文 参考訳(メタデータ) (2024-04-01T18:12:09Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Robots That Can See: Leveraging Human Pose for Trajectory Prediction [30.919756497223343]
本研究では,人間中心環境における未来の軌道を予測するためのトランスフォーマーアーキテクチャを提案する。
結果として得られたモデルは、将来の人間の軌道予測に固有の不確実性を捉えている。
我々は,限られた履歴データを持つ新しいエージェントを誤りの主な要因として同定し,予測誤差を低減するために3次元骨格ポーズの相補的な性質を実証する。
論文 参考訳(メタデータ) (2023-09-29T13:02:56Z) - Occlusion-Robust Multi-Sensory Posture Estimation in Physical
Human-Robot Interaction [10.063075560468798]
1台のカメラ上でのOpenPoseからの2D姿勢と、人間がタスクを実行している間に対話するロボットの軌道。
1台のカメラ上でのOpenPoseからの2D姿勢と、人間がタスクを実行している間に対話するロボットの軌道を利用する。
本研究は,OpenPoseのみを用いた姿勢推定や,ロボットの軌道のみを用いた姿勢推定よりも,人間の体力の冗長性を解消できることを示す。
論文 参考訳(メタデータ) (2022-08-12T20:41:09Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Human POSEitioning System (HPS): 3D Human Pose Estimation and
Self-localization in Large Scenes from Body-Mounted Sensors [71.29186299435423]
HPS(Human POSEitioning System)は、周囲の環境の3Dスキャンで登録された人間の完全な3Dポーズを回復する手法です。
最適化に基づく統合は2つの利点を生かし、結果としてドリフトのないポーズの精度が得られることを示す。
hpsは、人間が外部カメラに直接視線を向けなくてもシーンと対話できるvr/arアプリケーションとして使用できる。
論文 参考訳(メタデータ) (2021-03-31T17:58:31Z) - We are More than Our Joints: Predicting how 3D Bodies Move [63.34072043909123]
我々は、潜時周波数から動きを生成する新しい変分オートエンコーダを訓練する。
実験の結果,本手法は最先端の3Dボディアニメーションとリアルな3Dボディアニメーションを生成することがわかった。
論文 参考訳(メタデータ) (2020-12-01T16:41:04Z) - Perceiving Humans: from Monocular 3D Localization to Social Distancing [93.03056743850141]
本稿では,人間の3次元位置と身体の向きを1つの画像から知覚する,コスト効率の高い視覚ベースの新しい手法を提案する。
我々は,「社会的距離」という概念を,単純な位置に基づくルールとは対照的に,社会的相互作用の一形態として再考することが可能であることを示す。
論文 参考訳(メタデータ) (2020-09-01T10:12:30Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。