論文の概要: Motion Planning Combines Psychological Safety and Motion Prediction for
a Sense Motive Robot
- arxiv url: http://arxiv.org/abs/2010.11671v2
- Date: Fri, 23 Oct 2020 15:32:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 07:23:05.011811
- Title: Motion Planning Combines Psychological Safety and Motion Prediction for
a Sense Motive Robot
- Title(参考訳): 感覚運動ロボットの心理的安全性と動作予測を組み合わせた運動計画
- Authors: Hejing Ling, Guoliang Liu, Guohui Tian
- Abstract要約: 本稿では,身体的安全性と心理的安全性の両面をカバーすることで,人間の安全問題に対処する。
まず,人間の表情に応じた適応型ロボットの速度制御とステップサイズ調整手法を導入する。
第2に,人間の姿勢や視線方向の急激な変化を検出して人間の動きを予測し,人間の注意が散らばっているかどうかをロボットが推測し,人間の次の動きを予測し,反発力を再構築して衝突を避ける。
- 参考スコア(独自算出の注目度): 2.14239637027446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human safety is the most important demand for human robot interaction and
collaboration (HRIC), which not only refers to physical safety, but also
includes psychological safety. Although many robots with different
configurations have entered our living and working environments, the human
safety problem is still an ongoing research problem in human-robot coexistence
scenarios. This paper addresses the human safety issue by covering both the
physical safety and psychological safety aspects. First, we introduce an
adaptive robot velocity control and step size adjustment method according to
human facial expressions, such that the robot can adjust its movement to keep
safety when the human emotion is unusual. Second, we predict the human motion
by detecting the suddenly changes of human head pose and gaze direction, such
that the robot can infer whether the human attention is distracted, predict the
next move of human and rebuild a repulsive force to avoid potential collision.
Finally, we demonstrate our idea using a 7 DOF TIAGo robot in a dynamic HRIC
environment, which shows that the robot becomes sense motive, and responds to
human action and emotion changes quickly and efficiently.
- Abstract(参考訳): 人間の安全は、人間のロボットのインタラクションとコラボレーション(HRIC)にとって最も重要な要求であり、身体的安全性だけでなく、心理的安全性も含んでいる。
構成の異なる多くのロボットが私たちの生活環境や作業環境に入り込んでいますが、人間とロボットが共存するシナリオでは、人間の安全問題は依然として研究中の問題です。
本稿では,身体安全と心理的安全性の両面をカバーすることで,人間の安全問題に対処する。
まず,人間の表情に応じた適応型ロボットの速度制御とステップサイズ調整手法を導入する。
第2に,人間の姿勢や視線方向の急激な変化を検出して人間の動きを予測し,人間の注意が散らばっているかどうかをロボットが推測し,人間の次の動きを予測し,反発力を再構築して衝突を避ける。
最後に、動的HRIC環境下で7 DOF TIAGoロボットを用いて、ロボットが感覚モチベーションとなり、人間の行動や感情への反応が迅速かつ効率的に変化することを示す。
関連論文リスト
- Real-Time Dynamic Robot-Assisted Hand-Object Interaction via Motion Primitives [45.256762954338704]
本稿では,動的ロボット支援ハンドオブジェクトインタラクションに着目した物理HRIの強化手法を提案する。
我々はトランスフォーマーに基づくアルゴリズムを用いて、1枚のRGB画像から人間の手の動きをリアルタイムに3Dモデリングする。
ロボットのアクション実装は、継続的に更新された3Dハンドモデルを使用して動的に微調整される。
論文 参考訳(メタデータ) (2024-05-29T21:20:16Z) - Guessing human intentions to avoid dangerous situations in caregiving robots [1.3546242205182986]
本研究では,人間の危険状況を検出するアルゴリズムを提案する。
ATMにシミュレーションベースのアプローチを導入し、「いいね!」ポリシーを採用し、人々に意図や行動を割り当てる。
このアルゴリズムは既存の認知アーキテクチャの一部として実装され、シミュレーションシナリオでテストされている。
論文 参考訳(メタデータ) (2024-03-24T20:43:29Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Sensorimotor representation learning for an "active self" in robots: A
model survey [10.649413494649293]
人間では、これらの能力は宇宙で私たちの身体を知覚する能力と関連していると考えられている。
本稿では,これらの能力の発達過程について概説する。
人工エージェントにおける自己感覚の出現を可能にする理論計算フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-25T16:31:01Z) - Warmth and Competence to Predict Human Preference of Robot Behavior in
Physical Human-Robot Interaction [0.8594140167290099]
社会的認知は、ウォームスとコンピテンスの次元が、他の人間を特徴づける中心的かつ普遍的な次元であると仮定する。
The Robotic Social Attribute Scale (RoSAS)は、HRIに適した寸法の項目を提案し、視覚的観察研究で検証した。
我々は、すべてのRoSASおよびGodspeed次元の中で、ウォームスとコンピテンスが、異なるロボット行動間の人間の嗜好の最も重要な予測因子であることを発見した。
論文 参考訳(メタデータ) (2020-08-13T10:19:47Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z) - Human Perception of Intrinsically Motivated Autonomy in Human-Robot
Interaction [2.485182034310304]
人間に生息する環境でロボットを使用する場合の課題は、人間同士の相互作用によって引き起こされる摂動に対して、魅力的だが堅牢な振る舞いを設計することである。
我々のアイデアは、ロボットに本質的なモチベーション(IM)を持たせることで、新しい状況に対処し、人間以外の真の社会的存在として現れるようにすることです。
本稿では、自律的に生成された振る舞いを相互に比較できる「ロボット学者」による研究設計について述べる。
論文 参考訳(メタデータ) (2020-02-14T09:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。