論文の概要: Anticipation through Head Pose Estimation: a preliminary study
- arxiv url: http://arxiv.org/abs/2408.05516v1
- Date: Sat, 10 Aug 2024 10:58:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 18:41:36.299420
- Title: Anticipation through Head Pose Estimation: a preliminary study
- Title(参考訳): 頭部電位推定による予測 : 予備的検討
- Authors: Federico Figari Tomenotti, Nicoletta Noceti,
- Abstract要約: 本稿では,行動目標を理解し,予測するための視覚的手がかりとして頭部ポーズを用いた予備実験について論じる。
短期的な予測が可能であることを示し、人間とロボットの相互作用に将来の応用の基礎を築いていく。
- 参考スコア(独自算出の注目度): 0.2209921757303168
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The ability to anticipate others' goals and intentions is at the basis of human-human social interaction. Such ability, largely based on non-verbal communication, is also a key to having natural and pleasant interactions with artificial agents, like robots. In this work, we discuss a preliminary experiment on the use of head pose as a visual cue to understand and anticipate action goals, particularly reaching and transporting movements. By reasoning on the spatio-temporal connections between the head, hands and objects in the scene, we will show that short-range anticipation is possible, laying the foundations for future applications to human-robot interaction.
- Abstract(参考訳): 他者の目標や意図を予測できる能力は、人間と人間の社会的相互作用に基づくものである。
このような能力は、主に非言語コミュニケーションに基づいており、ロボットのような人工エージェントと自然で快適な対話を行うための鍵でもある。
本研究では,視覚的手がかりとして頭部ポーズを用いた行動目標の理解と予測,特に動きの到達と伝達に関する予備実験について論じる。
シーン内の頭部・手・物体間の時空間的関係を推論することにより、短距離予測が可能であることを示し、今後の人間とロボットの相互作用の基盤となる。
関連論文リスト
- An Epistemic Human-Aware Task Planner which Anticipates Human Beliefs and Decisions [8.309981857034902]
目的は、制御不能な人間の行動を説明するロボットポリシーを構築することである。
提案手法は,AND-OR探索に基づく新しい計画手法と解法の構築である。
2つの領域における予備的な実験は、1つの新しいものと1つの適応されたもので、フレームワークの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-27T08:27:36Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - HandMeThat: Human-Robot Communication in Physical and Social
Environments [73.91355172754717]
HandMeThatは、物理的および社会的環境における命令理解とフォローの総合評価のためのベンチマークである。
HandMeThatには、人間とロボットの対話の1万エピソードが含まれている。
オフラインとオンラインの強化学習アルゴリズムはHandMeThatでは性能が良くないことを示す。
論文 参考訳(メタデータ) (2023-10-05T16:14:46Z) - Proactive Human-Robot Interaction using Visuo-Lingual Transformers [0.0]
人間は人間の相互作用を通して文脈を推測するために、潜伏したビスオ・言語的手がかりを抽出する能力を持っている。
本研究では,シーンからの視覚的手がかり,ユーザからの言語コマンド,事前オブジェクト間相互作用の知識を用いて,ユーザが達成しようとしている目標を積極的に予測する学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-04T00:50:21Z) - Gaze-based intention estimation: principles, methodologies, and
applications in HRI [0.0]
本総説は,視覚運動制御に関する心理学文献の知見と,視線に基づく意図認識の関連応用の線引きをめざしたものである。
人-ロボットインタラクションにおける視線追跡と視線モデルを用いた意図認識について考察する。
論文 参考訳(メタデータ) (2023-02-09T09:44:13Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Forecasting Nonverbal Social Signals during Dyadic Interactions with
Generative Adversarial Neural Networks [0.0]
社会的相互作用の成功は、非言語的知覚と行動機構の相互作用と密接に結びついている。
非言語的ジェスチャーは、発話を強調したり意図を示す能力を持つ社会ロボットを養うことが期待されている。
我々の研究は、社会的相互作用における人間の振舞いのモデル化に光を当てている。
論文 参考訳(メタデータ) (2021-10-18T15:01:32Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Towards hybrid primary intersubjectivity: a neural robotics library for
human science [4.232614032390374]
主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観的主観
本研究では,人-ロボットインタラクション実験のためのオープンソース手法であるテクスチュラルロボティクスライブラリ(NRL)を提案する。
人-ロボット間(ハイブリッド)が人間の科学研究に寄与する方法について論じる。
論文 参考訳(メタデータ) (2020-06-29T11:35:46Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。