論文の概要: Gaze-based dual resolution deep imitation learning for high-precision
dexterous robot manipulation
- arxiv url: http://arxiv.org/abs/2102.01295v1
- Date: Tue, 2 Feb 2021 04:11:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:40:50.137173
- Title: Gaze-based dual resolution deep imitation learning for high-precision
dexterous robot manipulation
- Title(参考訳): 高精度なデキサスロボット操作のためのGazeベースのデュアルリゾリューションディープイミテーション学習
- Authors: Heecheol Kim, Yoshiyuki Ohmura, and Yasuo Kuniyoshi
- Abstract要約: 針のスレッディングのような高精度な操作作業は困難である。
人間の視線に基づく双対分解能ビジュモータ制御システムにインスパイアされた、深層模倣学習に基づく手法は、ニードルスレッディングタスクを解くことができる。
- 参考スコア(独自算出の注目度): 2.6094411360258185
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A high-precision manipulation task, such as needle threading, is challenging.
Physiological studies have proposed connecting low-resolution peripheral vision
and fast movement to transport the hand into the vicinity of an object, and
using high-resolution foveated vision to achieve the accurate homing of the
hand to the object. The results of this study demonstrate that a deep imitation
learning based method, inspired by the gaze-based dual resolution visuomotor
control system in humans, can solve the needle threading task. First, we
recorded the gaze movements of a human operator who was teleoperating a robot.
Then, we used only a high-resolution image around the gaze to precisely control
the thread position when it was close to the target. We used a low-resolution
peripheral image to reach the vicinity of the target. The experimental results
obtained in this study demonstrate that the proposed method enables precise
manipulation tasks using a general-purpose robot manipulator and improves
computational efficiency.
- Abstract(参考訳): 針のスレッディングのような高精度な操作作業は困難である。
生理学的研究は、低解像度の周辺視覚と高速移動をつなげて物体の近傍に手を運ぶことを提案し、高分解能の焦点視覚を用いて物体への正確な手のホーミングを実現する。
本研究は,人間の視線に基づく双対分解能振動子制御システムにインスパイアされた,深層模倣学習に基づく手法により,針のスレッディング作業が解決できることを実証した。
まず,ロボットを遠隔操作している操作者の視線の動きを記録した。
次に,視線周辺の高分解能画像のみを用いて,目標近傍の糸位置を正確に制御した。
我々は低解像度の周辺画像を用いて目標付近に到達した。
本研究で得られた実験結果は,汎用ロボットマニピュレータを用いた高精度操作が可能であり,計算効率が向上することを示す。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Robotic Constrained Imitation Learning for the Peg Transfer Task in Fundamentals of Laparoscopic Surgery [18.64205729932939]
腹腔鏡下手術の基礎(FLS)におけるペグ伝達タスクを模倣学習で行うロボットの実装戦略を提案する。
本研究では,単眼画像のみを用いて,より正確な模倣学習を実現する。
2台のフランカ・エミカ・パンダ・ロボットアームを用いて全体システムを実装し,その有効性を検証した。
論文 参考訳(メタデータ) (2024-05-06T13:12:25Z) - Self-Explainable Affordance Learning with Embodied Caption [63.88435741872204]
具体的キャプションを具現化したSelf-Explainable Affordance Learning (SEA)を紹介する。
SEAは、ロボットが意図を明確に表現し、説明可能な視覚言語キャプションと視覚能力学習のギャップを埋めることを可能にする。
本稿では, 簡便かつ効率的な方法で, 空き地と自己説明を効果的に組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-04-08T15:22:38Z) - FViT-Grasp: Grasping Objects With Using Fast Vision Transformers [6.545358538123621]
我々は,ロボットが物体を操作するための最適な把握ポイントを迅速かつ正確に同定するための新しい手法を考案した。
我々のアプローチでは、視覚データを処理し、最も適切な把握位置を予測するように設計されたニューラルネットワークであるFViT(Fast Vision Transformer)を活用している。
論文 参考訳(メタデータ) (2023-11-23T13:07:21Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - In-air Knotting of Rope using Dual-Arm Robot based on Deep Learning [8.365690203298966]
深層学習に基づく双腕二本指ロボットを用いて,ロープの空中結節を成功させた。
全ての対象状態に対応する適切なロボット動作のマニュアル記述を事前に作成することは困難である。
そこで我々は,ロボットに2つの深層ニューラルネットワークを訓練し,そのセンサモデレータから収集したデータに基づいてボクノットとオーバーハンドノットを行うよう指示するモデルを構築した。
論文 参考訳(メタデータ) (2021-03-17T02:11:58Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Improved Learning of Robot Manipulation Tasks via Tactile Intrinsic
Motivation [40.81570120196115]
スパースゴール設定では、エージェントはランダムに目標を達成するまで肯定的なフィードバックを受けません。
子どもの触覚による探索から着想を得て,ロボットの力センサと操作対象との力の合計に基づいて本質的な報酬を定式化する。
提案手法は,3つの基本ロボット操作ベンチマークにおける最先端手法の探索と性能向上を促進させる。
論文 参考訳(メタデータ) (2021-02-22T14:21:30Z) - Real-time Active Vision for a Humanoid Soccer Robot Using Deep
Reinforcement Learning [0.8701566919381223]
本研究では,ヒューマノイドサッカープレイングロボットの深部強化学習手法を用いたアクティブビジョン手法を提案する。
提案手法は,ロボットの視点を適応的に最適化し,自己ローカライゼーションのための最も有用なランドマークを取得する。
論文 参考訳(メタデータ) (2020-11-27T17:29:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。