論文の概要: An Attention Transfer Model for Human-Assisted Failure Avoidance in
Robot Manipulations
- arxiv url: http://arxiv.org/abs/2002.04242v3
- Date: Tue, 29 Jun 2021 14:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:39:48.416688
- Title: An Attention Transfer Model for Human-Assisted Failure Avoidance in
Robot Manipulations
- Title(参考訳): ロボット操作における人為的障害回避のための注意伝達モデル
- Authors: Boyi Song, Yuntao Peng, Ruijiao Luo, Rui Liu
- Abstract要約: ロボット操作の誤りを識別する新しいヒューマン・ロボット・アテンション・トランスファー法(textittextbfH2R-AT)を開発した。
textittextbfH2R-ATは、アテンションマッピング機構を新しい積み重ねニューラルネットワークモデルに融合して開発された。
この方法の有効性は、転送注意における7,3.68%の高精細さと、故障の把握を避けるための6,6.86%の高精細さによって検証された。
- 参考スコア(独自算出の注目度): 2.745883395089022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to real-world dynamics and hardware uncertainty, robots inevitably fail
in task executions, resulting in undesired or even dangerous executions. In
order to avoid failures and improve robot performance, it is critical to
identify and correct abnormal robot executions at an early stage. However, due
to limited reasoning capability and knowledge storage, it is challenging for
robots to self-diagnose and -correct their own abnormality in both planning and
executing. To improve robot self diagnosis capability, in this research a novel
human-to-robot attention transfer (\textit{\textbf{H2R-AT}}) method was
developed to identify robot manipulation errors by leveraging human
instructions. \textit{\textbf{H2R-AT}} was developed by fusing attention
mapping mechanism into a novel stacked neural networks model, transferring
human verbal attention into robot visual attention. With the attention
transfer, a robot understands \textit{what} and \textit{where} human concerns
are to identify and correct abnormal manipulations. Two representative task
scenarios: ``serve water for a human in a kitchen" and ``pick up a defective
gear in a factory" were designed in a simulation framework CRAIhri with
abnormal robot manipulations; and $252$ volunteers were recruited to provide
about 12000 verbal reminders to learn and test \textit{\textbf{H2R-AT}}. The
method effectiveness was validated by the high accuracy of $73.68\%$ in
transferring attention, and the high accuracy of $66.86\%$ in avoiding grasping
failures.
- Abstract(参考訳): 実世界のダイナミクスとハードウェアの不確実性のため、ロボットは必然的にタスクの実行に失敗する。
障害を回避し,ロボット性能を向上させるためには,早期に異常なロボット実行を特定し,修正することが重要である。
しかし、推論能力と知識記憶能力の制限により、ロボットは計画と実行の両方において、自己診断と修正が困難である。
本研究では,ロボットの自己診断能力を向上させるために,人間の指示を利用してロボット操作の誤りを識別する新しい人間-ロボット間注意伝達法(\textit{\textbf{h2r-at}})を開発した。
\textit{\textbf{H2R-AT}} は、注意マッピング機構を新しい積み重ねニューラルネットワークモデルに融合させ、人間の言葉による注意をロボットの視覚的注意に伝達することによって開発された。
注意の伝達によって、ロボットは異常な操作を識別し、修正するために \textit{what} と \textit{where} を理解する。
ロボット操作異常を伴うシミュレーションフレームワークCRAIhriでは,「キッチンで人間に水を供給」と「工場で欠陥機材をピックアップ」という2つの代表的なタスクシナリオが設計され,約252ドルのボランティアが採用され,約12,000件の言語的リマインダーが提供され,学習とテストが行われた。
この手法の有効性は、注意を移す際に73.68\%$の高精度さと、把持障害を避けるための66.86\%$の精度で検証された。
関連論文リスト
- Know your limits! Optimize the robot's behavior through self-awareness [11.021217430606042]
最近の人間ロボット模倣アルゴリズムは、高精度な人間の動きを追従することに焦点を当てている。
本稿では,ロボットが参照を模倣する際の動作を予測できるディープラーニングモデルを提案する。
我々のSAW(Self-AWare Model)は、転倒確率、基準運動への固執、滑らかさといった様々な基準に基づいて、潜在的なロボットの挙動をランク付けする。
論文 参考訳(メタデータ) (2024-09-16T14:14:58Z) - LLM Granularity for On-the-Fly Robot Control [3.5015824313818578]
視覚が信頼できない、あるいは利用できない状況では、ロボットを制御するための言語のみに頼ることができるのか?
本研究は,(1)様々な粒度の言語プロンプトに対する補助ロボットの応答を評価し,(2)ロボットのオンザフライ制御の必要性と実現可能性を探る。
論文 参考訳(メタデータ) (2024-06-20T18:17:48Z) - HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,現在最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的学習アプローチはロバストな低レベルポリシーに支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Robot Vitals and Robot Health: Towards Systematically Quantifying
Runtime Performance Degradation in Robots Under Adverse Conditions [2.0625936401496237]
ロボットバイタル」とは、ロボットが直面する性能劣化の程度を推定する指標である。
ロボット健康」とは、ロボットのバイタルを1つのスカラー値に組み合わせ、性能劣化を推定する指標である。
論文 参考訳(メタデータ) (2022-07-04T19:26:13Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Fault-Aware Robust Control via Adversarial Reinforcement Learning [35.16413579212691]
本稿では, 関節損傷症例に対するロボットの脆弱性を大幅に向上させる, 対向強化学習フレームワークを提案する。
我々は,本アルゴリズムを3本指ロボットと4本指ロボットで検証する。
我々のアルゴリズムはシミュレーションでのみ訓練でき、微調整なしで実際のロボットに直接展開できる。
論文 参考訳(メタデータ) (2020-11-17T16:01:06Z) - Quantifying Hypothesis Space Misspecification in Learning from
Human-Robot Demonstrations and Physical Corrections [34.53709602861176]
最近の研究は、ロボットがそのようなインプットを使って意図した目的を学習する方法に焦点を当てている。
本研究では,2種類の人間入力から学習する7自由度ロボットマニピュレータについて実験を行った。
論文 参考訳(メタデータ) (2020-02-03T18:59:23Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。