論文の概要: Economical Precise Manipulation and Auto Eye-Hand Coordination with
Binocular Visual Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2205.05963v1
- Date: Thu, 12 May 2022 09:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 13:05:57.861577
- Title: Economical Precise Manipulation and Auto Eye-Hand Coordination with
Binocular Visual Reinforcement Learning
- Title(参考訳): 両眼視覚強化学習による経済的精密操作と自己眼球協調
- Authors: Yiwen Chen, Sheng Guo, Lei Zhou, Xian Yao Ng, Marcelo H. Ang Jr
- Abstract要約: 本研究は、未知のアイハンド調整に焦点をあて、アイ・イン・ハンド・カメラのキャリブレーションを自動で行う様々な方法を提案する。
提案手法は4つのタスクに対して最小限のコストで競争的に良い結果を得る。
- 参考スコア(独自算出の注目度): 12.577339793821471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precision robotic manipulation tasks (insertion, screwing, precisely pick,
precisely place) are required in many scenarios. Previous methods achieved good
performance on such manipulation tasks. However, such methods typically require
tedious calibration or expensive sensors. 3D/RGB-D cameras and torque/force
sensors add to the cost of the robotic application and may not always be
economical. In this work, we aim to solve these but using only weak-calibrated
and low-cost webcams. We propose Binocular Alignment Learning (BAL), which
could automatically learn the eye-hand coordination and points alignment
capabilities to solve the four tasks. Our work focuses on working with unknown
eye-hand coordination and proposes different ways of performing eye-in-hand
camera calibration automatically. The algorithm was trained in simulation and
used a practical pipeline to achieve sim2real and test it on the real robot.
Our method achieves a competitively good result with minimal cost on the four
tasks.
- Abstract(参考訳): 多くのシナリオでは、精密なロボット操作タスク(挿入、ねじ、正確に選択)が必須である。
従来手法はこのような操作タスクで優れた性能を達成していた。
しかし、このような方法は通常は面倒なキャリブレーションや高価なセンサーを必要とする。
3D/RGB-Dカメラとトルク/フォースセンサーはロボットアプリケーションのコストを増し、必ずしも経済的ではないかもしれない。
本研究では,弱いキャリブレーションと低コストのウェブカメラのみを用いて,これらの問題を解決することを目的とする。
両眼アライメント学習(BAL)を提案し,眼の協調とポイントアライメント機能を自動的に学習して4つの課題を解決する。
本研究は未知の眼球運動に焦点をあて,眼球運動の自動キャリブレーション手法を提案する。
このアルゴリズムはシミュレーションで訓練され、実用的なパイプラインを使ってsim2realを実現し、実際のロボットでテストした。
提案手法は,4つのタスクに最小限のコストで,競争力に優れた結果が得られる。
関連論文リスト
- Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Look Closer: Bridging Egocentric and Third-Person Views with
Transformers for Robotic Manipulation [15.632809977544907]
視覚フィードバックから精度に基づく操作タスクを解くことは、従来のロボットシステムに必要なエンジニアリング労力を大幅に削減する可能性がある。
ロボットの手首に装着した3人称カメラと自我中心カメラの両方から視覚フィードバックを受けるロボット操作のための設定を提案する。
また,両カメラの視覚情報を効果的に融合するために,クロスビューアテンション機構を備えたトランスフォーマーを提案する。
論文 参考訳(メタデータ) (2022-01-19T18:39:03Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Scene Editing as Teleoperation: A Case Study in 6DoF Kit Assembly [18.563562557565483]
遠隔操作によるシーン編集(SEaT)の枠組みを提案する。
ロボットを制御する代わりに、ユーザーはタスクのゴールを指定することに集中する。
ユーザは、ロボットハードウェアの専門知識を必要とせずに遠隔操作を行うことができる。
論文 参考訳(メタデータ) (2021-10-09T04:22:21Z) - Unified Data Collection for Visual-Inertial Calibration via Deep
Reinforcement Learning [24.999540933593273]
本研究では,ロボットアーム上で自動データ収集を行う動作ポリシーを学習するための新しい定式化を提案する。
本手法はモデルフリー深部強化学習を用いてキャリブレーション過程をコンパクトにモデル化する。
シミュレーションでは、手作りのポリシーよりも10倍速くキャリブレーションを実行できます。
論文 参考訳(メタデータ) (2021-09-30T10:03:56Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Gaze-based dual resolution deep imitation learning for high-precision
dexterous robot manipulation [2.6094411360258185]
針のスレッディングのような高精度な操作作業は困難である。
人間の視線に基づく双対分解能ビジュモータ制御システムにインスパイアされた、深層模倣学習に基づく手法は、ニードルスレッディングタスクを解くことができる。
論文 参考訳(メタデータ) (2021-02-02T04:11:09Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Mobile Robot Planner with Low-cost Cameras Using Deep Reinforcement
Learning [0.0]
本研究は、深層強化学習に基づくロボットモビリティポリシーを開発する。
ロボットを市場に投入するためには、低コストの大量生産も課題だ。
論文 参考訳(メタデータ) (2020-12-21T07:30:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。