論文の概要: A General Mobile Manipulator Automation Framework for Flexible
Manufacturing in Hostile Industrial Environments
- arxiv url: http://arxiv.org/abs/2302.04486v1
- Date: Thu, 9 Feb 2023 08:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-10 16:29:02.030802
- Title: A General Mobile Manipulator Automation Framework for Flexible
Manufacturing in Hostile Industrial Environments
- Title(参考訳): ホスト型産業環境におけるフレキシブル製造のための汎用移動マニピュレータ自動化フレームワーク
- Authors: Can Pu, Chuanyu Yang, Jinnian Pu and Robert B. Fisher
- Abstract要約: 我々は提案手法をMMPA (Mobile Manipulator Process Automation with One-shot teaching) と呼ぶ。
提案するMMPAフレームワークは,ロボット学習の指導段階において,データ(移動体基地の位置,環境情報,エンドエフェクタ経路)を収集する2つの段階から構成される。
自動化段階では、ロボットは正確な駐車を必要とせず、指定された場所へ移動する。
- 参考スコア(独自算出の注目度): 7.0005666228033325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To enable a mobile manipulator to perform human tasks from a single teaching
demonstration is vital to flexible manufacturing. We call our proposed method
MMPA (Mobile Manipulator Process Automation with One-shot Teaching). Currently,
there is no effective and robust MMPA framework which is not influenced by
harsh industrial environments and the mobile base's parking precision. The
proposed MMPA framework consists of two stages: collecting data (mobile base's
location, environment information, end-effector's path) in the teaching stage
for robot learning; letting the end-effector repeat the nearly same path as the
reference path in the world frame to reproduce the work in the automation
stage. More specifically, in the automation stage, the robot navigates to the
specified location without the need of a precise parking. Then, based on
colored point cloud registration, the proposed IPE (Iterative Pose Estimation
by Eye & Hand) algorithm could estimate the accurate 6D relative parking pose
of the robot arm base without the need of any marker. Finally, the robot could
learn the error compensation from the parking pose's bias to modify the
end-effector's path to make it repeat a nearly same path in the world
coordinate system as recorded in the teaching stage. Hundreds of trials have
been conducted with a real mobile manipulator to show the superior robustness
of the system and the accuracy of the process automation regardless of the
harsh industrial conditions and parking precision. For the released code,
please contact marketing@amigaga.com
- Abstract(参考訳): フレキシブルな製造には、1つの教示デモからヒューマンタスクを実行できる移動マニピュレータが不可欠である。
提案手法をMMPA (Mobile Manipulator Process Automation with One-shot Teaching) と呼ぶ。
現在、厳しい産業環境や移動基地の駐車精度の影響を受けない、効果的で堅牢なMMPAフレームワークは存在しない。
提案するmmpaフレームワークは,ロボット学習の指導段階におけるデータ収集(モバイルベースの位置,環境情報,エンドエフェクタパス),エンドエフェクタがワールドフレームの参照パスとほぼ同じ経路を繰り返すことによって,自動化段階における作業を再現する,という2段階からなる。
より具体的には、自動化の段階では、ロボットは正確な駐車を必要とせずに特定の場所に移動する。
そして,カラーポイントクラウド登録に基づいて,提案するipp(iterative pose estimation by eye & hand)アルゴリズムは,マーカーを必要とせずに,ロボットアームベースの正確な6次元相対駐車姿勢を推定できる。
最後に、ロボットは、駐車ポーズのバイアスからエラー補償を学習し、エンドエフェクターの経路を変更し、世界座標系において、教育段階に記録されたほぼ同じ経路を再現する。
厳密な産業条件や駐車精度に関わらず、システムの優れた堅牢性とプロセス自動化の精度を示すために、実際の移動マニピュレータを用いて数百の試験が実施されている。
リリースコードについてはmarketing@amigaga.comに連絡してください。
関連論文リスト
- Generalized Robot Learning Framework [10.03174544844559]
本稿では,様々なロボットや環境に容易に再現可能かつ伝達可能な,低コストなロボット学習フレームワークを提案する。
我々は,産業用ロボットにおいても,デプロイ可能な模倣学習をうまく適用できることを実証した。
論文 参考訳(メタデータ) (2024-09-18T15:34:31Z) - Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - AutoRT: Embodied Foundation Models for Large Scale Orchestration of Robotic Agents [109.3804962220498]
AutoRTは、人間の監督を最小限に抑えて、完全に見えないシナリオで運用ロボットの展開をスケールアップするシステムである。
われわれはAutoRTが複数の建物にまたがる20以上のロボットに指示を提示し、遠隔操作と自律ロボットポリシーを通じて77万個の実ロボットエピソードを収集するデモを行った。
実験により,AutoRTが収集した「未使用データ」は極めて多種多様であり,AutoRTのLLMを使用することで,人間の好みに合わせることができるデータ収集ロボットの指示が可能であることを実証した。
論文 参考訳(メタデータ) (2024-01-23T18:45:54Z) - Harmonic Mobile Manipulation [35.82197562695662]
HarmonicMMはナビゲーションと操作の両方を最適化するエンドツーエンドの学習手法である。
私たちのコントリビューションには、モバイル操作のための新しいベンチマークと、RGBの視覚的観察のみによるデプロイメントの成功が含まれています。
論文 参考訳(メタデータ) (2023-12-11T18:54:42Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - Markerless Camera-to-Robot Pose Estimation via Self-supervised
Sim-to-Real Transfer [26.21320177775571]
本稿では,オンラインカメラ・ロボット・キャリブレーションと自己監督型トレーニング手法を備えたエンドツーエンドのポーズ推定フレームワークを提案する。
我々のフレームワークはロボットのポーズを解くための深層学習と幾何学的ビジョンを組み合わせており、パイプラインは完全に微分可能である。
論文 参考訳(メタデータ) (2023-02-28T05:55:42Z) - SABER: Data-Driven Motion Planner for Autonomously Navigating
Heterogeneous Robots [112.2491765424719]
我々は、データ駆動型アプローチを用いて、異種ロボットチームをグローバルな目標に向けてナビゲートする、エンドツーエンドのオンラインモーションプランニングフレームワークを提案する。
モデル予測制御(SMPC)を用いて,ロボット力学を満たす制御入力を計算し,障害物回避時の不確実性を考慮した。
リカレントニューラルネットワークは、SMPC有限時間地平線解における将来の状態の不確かさを素早く推定するために用いられる。
ディープQ学習エージェントがハイレベルパスプランナーとして機能し、SMPCにロボットを望ましいグローバルな目標に向けて移動させる目標位置を提供する。
論文 参考訳(メタデータ) (2021-08-03T02:56:21Z) - Visual Navigation in Real-World Indoor Environments Using End-to-End
Deep Reinforcement Learning [2.7071541526963805]
そこで本研究では,実際のロボットにトレーニング済みポリシーを直接展開する手法を提案する。
このポリシーは、現実世界の環境から収集された画像に基づいて微調整される。
30回のナビゲーション実験では、このロボットは86.7%以上のケースで目標の0.3メートル付近に到達した。
論文 参考訳(メタデータ) (2020-10-21T11:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。