論文の概要: Off-the-shelf bin picking workcell with visual pose estimation: A case
study on the world robot summit 2018 kitting task
- arxiv url: http://arxiv.org/abs/2309.16221v1
- Date: Thu, 28 Sep 2023 07:52:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 15:39:18.349082
- Title: Off-the-shelf bin picking workcell with visual pose estimation: A case
study on the world robot summit 2018 kitting task
- Title(参考訳): 視覚的ポーズ推定を用いた市販ビンピッキングワークセル--world robot summit 2018 kittingタスクを事例として
- Authors: Frederik Hagelskj{\ae}r, Kasper H{\o}j Lorenzen and Dirk Kraft
- Abstract要約: 本稿では,新しい視覚センサとポーズ推定アルゴリズムを用いることで,ビン内のポーズ推定をうまく行うことができることを示す。
また, 作業用ワークセルと力に基づく把持手法を併用して, 完全な作業用の作業セルも実装した。
私たちのセットアップは、World Robot Summit 2018 Assembly Challengeでテストされています。
- 参考スコア(独自算出の注目度): 0.5685944521394609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The World Robot Summit 2018 Assembly Challenge included four different tasks.
The kitting task, which required bin-picking, was the task in which the fewest
points were obtained. However, bin-picking is a vital skill that can
significantly increase the flexibility of robotic set-ups, and is, therefore,
an important research field. In recent years advancements have been made in
sensor technology and pose estimation algorithms. These advancements allow for
better performance when performing visual pose estimation.
This paper shows that by utilizing new vision sensors and pose estimation
algorithms pose estimation in bins can be performed successfully. We also
implement a workcell for bin picking along with a force based grasping approach
to perform the complete bin picking. Our set-up is tested on the World Robot
Summit 2018 Assembly Challenge and successfully obtains a higher score compared
with all teams at the competition. This demonstrate that current technology can
perform bin-picking at a much higher level compared with previous results.
- Abstract(参考訳): World Robot Summit 2018 Assembly Challengeには4つのタスクがあった。
ビンピッキング(bin-picking)が必要だったキットタスクは、最も少ないポイントが得られたタスクだった。
しかし、ビンピッキングはロボットのセットアップの柔軟性を大幅に向上させる重要なスキルであり、したがって重要な研究分野である。
近年,センサ技術とポーズ推定アルゴリズムが進歩している。
これらの進歩により、視覚的なポーズ推定を行う際のパフォーマンスが向上する。
本稿では,新しい視覚センサとポーズ推定アルゴリズムを用いて,ビン内のポーズ推定をうまく行うことができることを示す。
また,完全なビンピッキングを行うための力に基づく把持アプローチとともに,ビンピッキングのためのワークセルを実装した。
このセットは、world robot summit 2018 assembly challengeでテストされ、コンペティションのすべてのチームよりも高いスコアを獲得しました。
これは、現在の技術が以前の結果よりもずっと高いレベルでバイナリピッキングを実行できることを示している。
関連論文リスト
- Towards Open-World Mobile Manipulation in Homes: Lessons from the Neurips 2023 HomeRobot Open Vocabulary Mobile Manipulation Challenge [93.4434417387526]
ロボット工学における鍵となるベンチマークタスクとして,Open Vocabulary Mobile Manipulationを提案する。
我々は,この課題に対する解決策を評価するために,シミュレーションと実世界のコンポーネントを兼ね備えたNeurIPS 2023コンペティションを組織した。
シミュレーションと実環境設定の両方で使用される結果と方法論を詳述する。
論文 参考訳(メタデータ) (2024-07-09T15:15:01Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - AlphaBlock: Embodied Finetuning for Vision-Language Reasoning in Robot
Manipulation [50.737355245505334]
本稿では,ロボット操作タスクにおける高レベル認知能力を学習するための新しいフレームワークを提案する。
得られたデータセットAlphaBlockは、多段階のテキストプランとペア観測による35の包括的なハイレベルタスクで構成されている。
論文 参考訳(メタデータ) (2023-05-30T09:54:20Z) - Robot Task Planning and Situation Handling in Open Worlds [10.077350377962482]
本稿では,オープンワールドなタスク計画と状況処理のための新しいアルゴリズムを提案する。
COWPはタスク指向の常識でロボットの行動知識を動的に増強する。
このバージョンはAutonomous Robotsに掲載されている。
論文 参考訳(メタデータ) (2022-10-04T00:21:00Z) - Learning to Fold Real Garments with One Arm: A Case Study in Cloud-Based
Robotics Research [21.200764836237497]
物理ハードウェア上でのファブリック操作アルゴリズムのシステマティックなベンチマークを行う。
専門家の行動、キーポイント、報酬関数、動的動きをモデル化する4つの新しい学習ベースアルゴリズムを開発した。
データ収集、モデルトレーニング、およびポリシー評価のライフサイクル全体は、ロボットワークセルへの物理的アクセスなしに遠隔で実行される。
論文 参考訳(メタデータ) (2022-04-21T17:31:20Z) - Lifelong Robotic Reinforcement Learning by Retaining Experiences [61.79346922421323]
多くのマルチタスク強化学習は、ロボットが常にすべてのタスクからデータを収集できると仮定している。
本研究では,物理ロボットシステムの実用的制約を動機として,現実的なマルチタスクRL問題について検討する。
我々は、ロボットのスキルセットを累積的に成長させるために、過去のタスクで学んだデータとポリシーを効果的に活用するアプローチを導出する。
論文 参考訳(メタデータ) (2021-09-19T18:00:51Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - A Scavenger Hunt for Service Robots [33.47876022070874]
本稿では,このスキルをScavenger Hunt(SH)ゲームとしてモデル化する。
目的は、発見される可能性のある確率分布を考えると、できるだけ迅速にオブジェクトのセットを見つけることです。
この問題では、目的は、発見される可能性のある確率分布を考えると、できるだけ迅速にオブジェクトの集合を見つけることである。
論文 参考訳(メタデータ) (2021-03-09T05:06:47Z) - Team O2AS at the World Robot Summit 2018: An Approach to Robotic Kitting
and Assembly Tasks using General Purpose Grippers and Tools [15.391258684247282]
本稿では,キット作成と組立作業のための汎用ロボットシステムを提案する。
2本指のグリップを使用して、ねじや吸引などのサブタスクを行うためのツールをつかみ、保持する。
コンペ期間中に実施した実験を通して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2020-03-05T04:34:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。