論文の概要: Transferring Experience from Simulation to the Real World for Precise
Pick-And-Place Tasks in Highly Cluttered Scenes
- arxiv url: http://arxiv.org/abs/2101.04781v1
- Date: Tue, 12 Jan 2021 22:16:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:49:10.837580
- Title: Transferring Experience from Simulation to the Real World for Precise
Pick-And-Place Tasks in Highly Cluttered Scenes
- Title(参考訳): 高精度ピック・アンド・プレイス作業のためのシミュレーションから実世界への移動経験
- Authors: Kilian Kleeberger and Markus V\"olk and Marius Moosmann and Erik
Thiessenhusen and Florian Roth and Richard Bormann and Marco F. Huber
- Abstract要約: 乱れ場面における既知の剛体物体を把握し,深度画像に基づいて正確に配置するための,学習に基づく新しいアプローチを提案する。
当社のPQ-Net(Placement Quality Network)は、ニューラルネットワークのシングルフォワードパスで、複数のオブジェクトのオブジェクトポーズと自動生成されたつかみポーズの品質を92fpsで同時に推定します。
全ての把握と配置の試行は物理シミュレーションで実行され、得られた経験はドメインランダム化を用いて実世界に移される。
- 参考スコア(独自算出の注目度): 6.816222782335256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce a novel learning-based approach for grasping
known rigid objects in highly cluttered scenes and precisely placing them based
on depth images. Our Placement Quality Network (PQ-Net) estimates the object
pose and the quality for each automatically generated grasp pose for multiple
objects simultaneously at 92 fps in a single forward pass of a neural network.
All grasping and placement trials are executed in a physics simulation and the
gained experience is transferred to the real world using domain randomization.
We demonstrate that our policy successfully transfers to the real world. PQ-Net
outperforms other model-free approaches in terms of grasping success rate and
automatically scales to new objects of arbitrary symmetry without any human
intervention.
- Abstract(参考訳): 本稿では,高度に散らばったシーンで既知の剛体物体を把握し,深度画像に基づいて正確に配置する,新しい学習手法を提案する。
pq-net (placement quality network) は、ニューラルネットワークの1回のフォワードパスにおいて、複数のオブジェクトに対して、自動的に生成された把持の各々のオブジェクトポーズと品質を92fpsで同時に推定する。
全ての把握と配置の試行は物理シミュレーションで実行され、得られた経験はドメインランダム化を用いて実世界に移される。
われわれの政策は実世界への移転に成功している。
PQ-Netは成功率の把握の観点から他のモデルフリーアプローチよりも優れており、人間の介入なしに任意の対称性を持つ新しいオブジェクトに自動的にスケールする。
関連論文リスト
- Closing the Visual Sim-to-Real Gap with Object-Composable NeRFs [59.12526668734703]
本稿では,オブジェクト合成可能なNeRFモデルであるComposable Object Volume NeRF(COV-NeRF)を紹介する。
COV-NeRFは、実際の画像からオブジェクトを抽出し、それらを新しいシーンに合成し、フォトリアリスティックなレンダリングと多くのタイプの2Dおよび3D監視を生成する。
論文 参考訳(メタデータ) (2024-03-07T00:00:02Z) - Reconstructing Objects in-the-wild for Realistic Sensor Simulation [41.55571880832957]
我々は,スパース・イン・ザ・ワイルドデータから正確な幾何学的および現実的な外観を推定する新しい手法であるNeuSimを提案する。
物体の外観を物理にインスパイアされた頑健な反射率表現でモデル化し,実測データに有効である。
実験の結果,NeuSimはスパース・トレーニング・ビューを持つ難解なシナリオに対して,強力なビュー合成性能を有することがわかった。
論文 参考訳(メタデータ) (2023-11-09T18:58:22Z) - Physics-Driven Turbulence Image Restoration with Stochastic Refinement [80.79900297089176]
大気乱流による画像歪みは、長距離光学画像システムにおいて重要な問題である。
ディープラーニングモデルが現実世界の乱流条件に適応するために、高速で物理学的なシミュレーションツールが導入された。
本稿では,物理統合復元ネットワーク(PiRN)を提案する。
論文 参考訳(メタデータ) (2023-07-20T05:49:21Z) - Neural-Sim: Learning to Generate Training Data with NeRF [31.81496344354997]
本稿では,ニューラルレージアンスフィールド(NeRF)を対象アプリケーションの損失関数を持つ閉ループに使用した,最初の完全微分可能な合成データパイプラインを提案する。
提案手法は,人的負担を伴わないオンデマンドでデータを生成し,目標タスクの精度を最大化する。
論文 参考訳(メタデータ) (2022-07-22T22:48:33Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Transformer Inertial Poser: Attention-based Real-time Human Motion
Reconstruction from Sparse IMUs [79.72586714047199]
本研究では,6つのIMUセンサからリアルタイムに全体動作を再構築する,注意に基づく深層学習手法を提案する。
提案手法は, 実装が簡単で, 小型でありながら, 定量的かつ質的に新しい結果が得られる。
論文 参考訳(メタデータ) (2022-03-29T16:24:52Z) - Locally Aware Piecewise Transformation Fields for 3D Human Mesh
Registration [67.69257782645789]
本論文では,3次元変換ベクトルを学習し,提案空間内の任意のクエリ点をリザーブ空間内の対応する位置にマップする部分変換場を提案する。
パラメトリックモデルにネットワークのポーズを合わせることで、特に極端なポーズにおいて、より優れた登録品質が得られることを示す。
論文 参考訳(メタデータ) (2021-04-16T15:16:09Z) - Attribute-Based Robotic Grasping with One-Grasp Adaptation [9.255994599301712]
本稿では,属性に基づくロボットグリップのエンドツーエンド学習手法を提案する。
提案手法は,作業空間の画像とクエリテキストの埋め込みをゲートアテンション機構を用いて融合し,インスタンスの把握能力の予測を学習する。
シミュレーションと実世界での実験結果は、私たちのアプローチが80%以上のインスタンスで未知のオブジェクトの成功率を把握できることを示しています。
論文 参考訳(メタデータ) (2021-04-06T03:40:46Z) - Benchmarking Domain Randomisation for Visual Sim-to-Real Transfer [19.82341644530165]
ドメイン・ランダム化(Domain randomization)は、ロボット工学における視覚的シミュレートと現実的移動の一般的な方法である。
レンダリング品質について検討し、少数の高品質画像が多数の低品質画像よりも優れていることを確認する。
第二に、ランダム化のタイプについて検討し、新しい環境への一般化において、気晴らしとテクスチャの両方が重要であることを見出した。
論文 参考訳(メタデータ) (2020-11-13T20:13:18Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Zero-Shot Reinforcement Learning with Deep Attention Convolutional
Neural Networks [12.282277258055542]
本研究では、特定の視覚センサ構成を持つ深層注意畳み込みニューラルネットワーク(DACNN)が、より低い計算複雑性で高いドメインとパラメータの変動を持つデータセット上でトレーニングを行うことを示す。
我々の新しいアーキテクチャは、制御対象に対する認識に適応し、知覚ネットワークを事前訓練することなくゼロショット学習を実現する。
論文 参考訳(メタデータ) (2020-01-02T19:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。