論文の概要: Can I Pour into It? Robot Imagining Open Containability Affordance of
Previously Unseen Objects via Physical Simulations
- arxiv url: http://arxiv.org/abs/2008.02321v2
- Date: Thu, 25 Feb 2021 03:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 17:46:10.601245
- Title: Can I Pour into It? Robot Imagining Open Containability Affordance of
Previously Unseen Objects via Physical Simulations
- Title(参考訳): 潜入できますか。
物理的シミュレーションによる未発見物体のオープン封じ込めを想像するロボット
- Authors: Hongtao Wu, Gregory S. Chirikjian
- Abstract要約: 我々はUR5マニピュレータにイマジネーション手法を実装した。
ロボットはRGB-Dカメラでオブジェクトを自律的にスキャンする。
粒状物質のオープンコンテナ分類と自律注水について,本手法の評価を行った。
- 参考スコア(独自算出の注目度): 12.685608639818513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open containers, i.e., containers without covers, are an important and
ubiquitous class of objects in human life. In this letter, we propose a novel
method for robots to "imagine" the open containability affordance of a
previously unseen object via physical simulations. We implement our imagination
method on a UR5 manipulator. The robot autonomously scans the object with an
RGB-D camera. The scanned 3D model is used for open containability imagination
which quantifies the open containability affordance by physically simulating
dropping particles onto the object and counting how many particles are retained
in it. This quantification is used for open-container vs. non-open-container
binary classification (hereafter referred to as open container classification).
If the object is classified as an open container, the robot further imagines
pouring into the object, again using physical simulations, to obtain the
pouring position and orientation for real robot autonomous pouring. We evaluate
our method on open container classification and autonomous pouring of granular
material on a dataset containing 130 previously unseen objects with 57 object
categories. Although our proposed method uses only 11 objects for simulation
calibration (training), its open container classification aligns well with
human judgements. In addition, our method endows the robot with the capability
to autonomously pour into the 55 containers in the dataset with a very high
success rate. We also compare to a deep learning method. Results show that our
method achieves the same performance as the deep learning method on open
container classification and outperforms it on autonomous pouring. Moreover,
our method is fully explainable.
- Abstract(参考訳): オープンコンテナ、すなわちカバーのないコンテナは、人間の生活において重要かつユビキタスなオブジェクトのクラスである。
本報告では,ロボットが物理的シミュレーションにより,これまで認識されていなかった物体のオープン封じ込め可能性について「想像」する新しい手法を提案する。
我々はUR5マニピュレータにイマジネーション手法を実装した。
ロボットはRGB-Dカメラでオブジェクトを自律的にスキャンする。
スキャンされた3Dモデルは、対象物に落下する粒子を物理的にシミュレートし、その中に保持される粒子数を数えることで、開封可能性の空白を定量化する。
この定量化は、オープンコンテナ対非オープンコンテナバイナリ分類(以下、オープンコンテナ分類と呼ぶ)に使用される。
物体が開容器に分類された場合、ロボットはさらに物体に注ぐことを想像し、物理的シミュレーションを用いて、実際のロボット自律注ぐための注ぐ位置と向きを得る。
57の被写体カテゴリを有する130個の被写体を含むデータセット上で, 開容器分類と粒状物質の自律注入に関する手法を評価した。
提案手法はシミュレーションキャリブレーション(訓練)に11個のオブジェクトのみを用いるが,そのオープンコンテナ分類は人間の判断とよく一致する。
さらに,本手法は,データセット内の55個のコンテナに自律的に注ぐ能力を持つロボットを,極めて高い成功率で支持する。
また,深層学習法との比較を行った。
その結果,本手法はオープンコンテナ分類における深層学習法と同じ性能を達成し,自律型注水法よりも優れていた。
さらに,本手法は完全に説明可能である。
関連論文リスト
- Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Learning active tactile perception through belief-space control [21.708391958446274]
本稿では,創造的世界モデルを開発することにより,触覚探索政策を自律的に学習する手法を提案する。
本手法は,目的が所望のオブジェクト特性を推定することである3つのシミュレーションタスクに対して評価する。
提案手法は, 所望のプロパティに関する情報を直感的に収集するポリシーを発見できることがわかった。
論文 参考訳(メタデータ) (2023-11-30T21:54:42Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Robotic Learning the Sequence of Packing Irregular Objects from Human
Demonstrations [3.58439716487063]
我々は、食料品などの不規則な物でロボットビンを梱包するという課題に取り組む。
我々のアプローチは、暗黙的なタスク知識を抽出するために、専門家によるデモンストレーションから直接学ぶことである。
私たちは、オブジェクトのパッキングシーケンスを予測するためにマルコフ連鎖を学ぶために、人間のデモに頼っています。
論文 参考訳(メタデータ) (2022-10-04T14:44:55Z) - DexTransfer: Real World Multi-fingered Dexterous Grasping with Minimal
Human Demonstrations [51.87067543670535]
本研究では,少数の人間によるデモンストレーションを行い,見えない物体のポーズを学習するロボット学習システムを提案する。
我々は,物体の点群を入力として捉え,物体を異なる初期ロボット状態から把握するための連続的な動作を予測する,厳密な把握ポリシーを訓練する。
我々のデータセットから学んだポリシーは、シミュレーションと現実世界の両方で見えないオブジェクトのポーズをうまく一般化することができる。
論文 参考訳(メタデータ) (2022-09-28T17:51:49Z) - Object Detection Using Sim2Real Domain Randomization for Robotic
Applications [0.0]
オブジェクト検出のための領域ランダム化に基づくSIM2real Transfer Learning法を提案する。
最先端の畳み込みニューラルネットワークであるYOLOv4は、さまざまな種類の産業オブジェクトを検出するために訓練されている。
我々のソリューションは、トレーニングに1つの実像のみを使用することで、類似したオブジェクトのクラスを確実に区別できるため、産業ニーズにマッチする。
論文 参考訳(メタデータ) (2022-08-08T14:16:45Z) - Container Localisation and Mass Estimation with an RGB-D Camera [2.5949039059957943]
操作された容器を検知し,その空の質量を推定するカメラベース手法を提案する。
CORSMAL Containers Manipulationデータセットの結果,提案手法は空のコンテナ質量を推定し,スコアは71.08%であった。
論文 参考訳(メタデータ) (2022-03-02T16:03:04Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。