論文の概要: Economical Precise Manipulation and Auto Eye-Hand Coordination with
Binocular Visual Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2205.05963v1
- Date: Thu, 12 May 2022 09:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 13:05:57.861577
- Title: Economical Precise Manipulation and Auto Eye-Hand Coordination with
Binocular Visual Reinforcement Learning
- Title(参考訳): 両眼視覚強化学習による経済的精密操作と自己眼球協調
- Authors: Yiwen Chen, Sheng Guo, Lei Zhou, Xian Yao Ng, Marcelo H. Ang Jr
- Abstract要約: 本研究は、未知のアイハンド調整に焦点をあて、アイ・イン・ハンド・カメラのキャリブレーションを自動で行う様々な方法を提案する。
提案手法は4つのタスクに対して最小限のコストで競争的に良い結果を得る。
- 参考スコア(独自算出の注目度): 12.577339793821471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Precision robotic manipulation tasks (insertion, screwing, precisely pick,
precisely place) are required in many scenarios. Previous methods achieved good
performance on such manipulation tasks. However, such methods typically require
tedious calibration or expensive sensors. 3D/RGB-D cameras and torque/force
sensors add to the cost of the robotic application and may not always be
economical. In this work, we aim to solve these but using only weak-calibrated
and low-cost webcams. We propose Binocular Alignment Learning (BAL), which
could automatically learn the eye-hand coordination and points alignment
capabilities to solve the four tasks. Our work focuses on working with unknown
eye-hand coordination and proposes different ways of performing eye-in-hand
camera calibration automatically. The algorithm was trained in simulation and
used a practical pipeline to achieve sim2real and test it on the real robot.
Our method achieves a competitively good result with minimal cost on the four
tasks.
- Abstract(参考訳): 多くのシナリオでは、精密なロボット操作タスク(挿入、ねじ、正確に選択)が必須である。
従来手法はこのような操作タスクで優れた性能を達成していた。
しかし、このような方法は通常は面倒なキャリブレーションや高価なセンサーを必要とする。
3D/RGB-Dカメラとトルク/フォースセンサーはロボットアプリケーションのコストを増し、必ずしも経済的ではないかもしれない。
本研究では,弱いキャリブレーションと低コストのウェブカメラのみを用いて,これらの問題を解決することを目的とする。
両眼アライメント学習(BAL)を提案し,眼の協調とポイントアライメント機能を自動的に学習して4つの課題を解決する。
本研究は未知の眼球運動に焦点をあて,眼球運動の自動キャリブレーション手法を提案する。
このアルゴリズムはシミュレーションで訓練され、実用的なパイプラインを使ってsim2realを実現し、実際のロボットでテストした。
提案手法は,4つのタスクに最小限のコストで,競争力に優れた結果が得られる。
関連論文リスト
- Robot Hand-Eye Calibration using Structure-from-Motion [9.64487611393378]
そこで本研究では,手眼の校正のためのフレキシブルな手法を提案する。
この解は線形形式で得られることを示す。
提案手法を既存手法と比較し,その有効性を検証した実験を多数実施する。
論文 参考訳(メタデータ) (2023-11-20T14:41:44Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware [132.39281056124312]
ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、ロボットにとって非常に難しい。
本稿では,実演からエンド・ツー・エンドの模倣学習を行う低コストシステムを提案する。
本研究では, 動作系列の生成モデルを学習する, 単純だが斬新なアルゴリズムであるAction Chunking with Transformersを開発した。
論文 参考訳(メタデータ) (2023-04-23T19:10:53Z) - Markerless Camera-to-Robot Pose Estimation via Self-supervised
Sim-to-Real Transfer [26.21320177775571]
本稿では,オンラインカメラ・ロボット・キャリブレーションと自己監督型トレーニング手法を備えたエンドツーエンドのポーズ推定フレームワークを提案する。
我々のフレームワークはロボットのポーズを解くための深層学習と幾何学的ビジョンを組み合わせており、パイプラインは完全に微分可能である。
論文 参考訳(メタデータ) (2023-02-28T05:55:42Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - Goal-Auxiliary Actor-Critic for 6D Robotic Grasping with Point Clouds [62.013872787987054]
6次元グルーピングのためのクローズドループ制御ポリシーを学習するための新しい手法を提案する。
本ポリシーでは,エゴセントリックカメラからの物体のセグメント化点雲を入力とし,ロボットグリップの連続した6次元制御動作を出力し,物体をつかむ。
論文 参考訳(メタデータ) (2020-10-02T07:42:00Z) - Learning Precise 3D Manipulation from Multiple Uncalibrated Cameras [13.24490469380487]
本稿では,3次元な精密な操作タスクをエンド・ツー・エンドで学習するための効果的なマルチビュー手法を提案する。
提案手法は,ポイントクラウドやボクセルグリッドのような明示的な3D表現を構築することなく,静的に配置された複数のRGBカメラビューを用いて,これらのタスクを達成できることを学習する。
論文 参考訳(メタデータ) (2020-02-21T03:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。