論文の概要: Vision-driven Compliant Manipulation for Reliable, High-Precision
Assembly Tasks
- arxiv url: http://arxiv.org/abs/2106.14070v1
- Date: Sat, 26 Jun 2021 17:54:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 07:42:42.312433
- Title: Vision-driven Compliant Manipulation for Reliable, High-Precision
Assembly Tasks
- Title(参考訳): 信頼できる高精度アセンブリタスクのためのビジョン駆動協調操作
- Authors: Andrew S. Morgan, Bowen Wen, Junchi Liang, Abdeslam Boularias, Aaron
M. Dollar, and Kostas Bekris
- Abstract要約: 本稿では,最先端の物体追跡と受動適応型機械ハードウェアを組み合わせることで,高精度な操作作業を実現することを実証する。
提案手法は,作業空間内の物体の相対的な6次元ポーズを追跡することにより,視覚を通してループを閉じる。
- 参考スコア(独自算出の注目度): 26.445959214209505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Highly constrained manipulation tasks continue to be challenging for
autonomous robots as they require high levels of precision, typically less than
1mm, which is often incompatible with what can be achieved by traditional
perception systems. This paper demonstrates that the combination of
state-of-the-art object tracking with passively adaptive mechanical hardware
can be leveraged to complete precision manipulation tasks with tight,
industrially-relevant tolerances (0.25mm). The proposed control method closes
the loop through vision by tracking the relative 6D pose of objects in the
relevant workspace. It adjusts the control reference of both the compliant
manipulator and the hand to complete object insertion tasks via within-hand
manipulation. Contrary to previous efforts for insertion, our method does not
require expensive force sensors, precision manipulators, or time-consuming,
online learning, which is data hungry. Instead, this effort leverages
mechanical compliance and utilizes an object agnostic manipulation model of the
hand learned offline, off-the-shelf motion planning, and an RGBD-based object
tracker trained solely with synthetic data. These features allow the proposed
system to easily generalize and transfer to new tasks and environments. This
paper describes in detail the system components and showcases its efficacy with
extensive experiments involving tight tolerance peg-in-hole insertion tasks of
various geometries as well as open-world constrained placement tasks.
- Abstract(参考訳): 高度に制約された操作タスクは、従来の知覚システムでは達成できないような1mm未満の高精度のロボットを必要とするため、自律ロボットにとって依然として困難である。
本稿では,最先端の物体追跡と受動適応型機械ハードウェアを組み合わせることで,厳密な産業用耐久性能(0.25mm)で高精度な操作を実現できることを示す。
提案手法は,作業空間内の物体の相対的な6次元ポーズを追跡することにより,視覚を通してループを閉じる。
対応するマニピュレータと手の両方の制御基準を調整し、手動操作によりオブジェクト挿入タスクを完了させる。
従来の挿入作業とは対照的に、この方法は高価な力センサや精密マニピュレータ、時間を要するオンライン学習を必要とせず、データに飢えている。
代わりに、この取り組みは機械的コンプライアンスを活用し、学習したオフラインのオブジェクト非依存の操作モデル、市販のモーションプランニング、合成データのみで訓練されたRGBDベースのオブジェクトトラッカーを利用する。
これらの特徴により、提案システムは、新しいタスクや環境に容易に一般化および転送できる。
本稿では, 各種ジオメトリの厳密な耐久ペグインインホール挿入タスクや, オープンワールドの制約された配置タスクを含む広範囲な実験により, システムコンポーネントを詳細に説明し, その有効性を示す。
関連論文リスト
- ManiPose: A Comprehensive Benchmark for Pose-aware Object Manipulation in Robotics [55.85916671269219]
本稿では,ポーズ変動操作タスクの研究を進めるための先駆的ベンチマークであるManiPoseを紹介する。
包括的データセットは、2936の現実世界のスキャンされた剛体オブジェクトと100の明瞭なオブジェクトに対して、幾何学的に一貫性があり、操作指向の6Dポーズラベルを備えている。
本ベンチマークは,ポーズ推定,ポーズ認識操作,実ロボットのスキル伝達における顕著な進歩を示す。
論文 参考訳(メタデータ) (2024-03-20T07:48:32Z) - Multi-task real-robot data with gaze attention for dual-arm fine manipulation [4.717749411286867]
本稿では,2つのアームタスクや細かな操作を必要とするタスクを含む多種多様なオブジェクト操作のデータセットを紹介する。
224k エピソード (150時間, 1,104 言語命令) のデータセットを作成した。
このデータセットには、視覚的注意信号とデュアルアクションラベル、アクションを堅牢な到達軌道とオブジェクトとの正確な相互作用に分離する信号、堅牢で正確なオブジェクト操作を実現するための言語命令が含まれる。
論文 参考訳(メタデータ) (2024-01-15T11:20:34Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - The Sum of Its Parts: Visual Part Segmentation for Inertial Parameter
Identification of Manipulated Objects [8.798250996263237]
慣性パラメータの完全なセットを推定する従来の方法は、必ずしも速くて安全でない動きに依存している。
そこで我々は,人間周辺での使用に適した,スロー動作やストップ・アンド・ゴー動作のみを必要とする慣性パラメータ同定アルゴリズムを開発した。
我々は、低コストの協調ロボットアームで、自律的かつオンラインで複雑な「ハンマーバランス行為」を行うことで、アルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-02-13T20:53:15Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z) - Learning Compliance Adaptation in Contact-Rich Manipulation [81.40695846555955]
本稿では,コンタクトリッチタスクに必要な力プロファイルの予測モデルを学習するための新しいアプローチを提案する。
このアプローチは、双方向Gated Recurrent Units (Bi-GRU) に基づく異常検出と適応力/インピーダンス制御を組み合わせたものである。
論文 参考訳(メタデータ) (2020-05-01T05:23:34Z) - Goal-Conditioned End-to-End Visuomotor Control for Versatile Skill
Primitives [89.34229413345541]
本稿では,制御器とその条件をエンドツーエンドに学習することで,落とし穴を回避する条件付け手法を提案する。
本モデルでは,ロボットの動きのダイナミックな画像表現に基づいて,複雑な動作シーケンスを予測する。
代表的MPCおよびILベースラインに対するタスク成功の大幅な改善を報告した。
論文 参考訳(メタデータ) (2020-03-19T15:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。