論文の概要: Learning Sim-to-Real Dense Object Descriptors for Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2304.08703v1
- Date: Tue, 18 Apr 2023 02:28:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 16:14:44.651982
- Title: Learning Sim-to-Real Dense Object Descriptors for Robotic Manipulation
- Title(参考訳): ロボットマニピュレーションのためのSim-to-Real Dense Object Descriptorの学習
- Authors: Hoang-Giang Cao, Weihao Zeng, I-Chen Wu
- Abstract要約: 我々はSim-to-Real Dense Object Nets(SRDONs)という,オブジェクトを適切な表現で理解するだけでなく,シミュレートされた実データをピクセル整合性を持った統一された特徴空間にマップする,高密度オブジェクト記述子を提案する。
本研究では,事前学習したSRDONが実世界の訓練をゼロにした各種ロボット作業において,見えない物体や見えない視覚環境の性能を著しく向上させる実験を行った。
- 参考スコア(独自算出の注目度): 4.7246285569677315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is crucial to address the following issues for ubiquitous robotics
manipulation applications: (a) vision-based manipulation tasks require the
robot to visually learn and understand the object with rich information like
dense object descriptors; and (b) sim-to-real transfer in robotics aims to
close the gap between simulated and real data. In this paper, we present
Sim-to-Real Dense Object Nets (SRDONs), a dense object descriptor that not only
understands the object via appropriate representation but also maps simulated
and real data to a unified feature space with pixel consistency. We proposed an
object-to-object matching method for image pairs from different scenes and
different domains. This method helps reduce the effort of training data from
real-world by taking advantage of public datasets, such as GraspNet. With
sim-to-real object representation consistency, our SRDONs can serve as a
building block for a variety of sim-to-real manipulation tasks. We demonstrate
in experiments that pre-trained SRDONs significantly improve performances on
unseen objects and unseen visual environments for various robotic tasks with
zero real-world training.
- Abstract(参考訳): ユビキタスロボット操作アプリケーションでは,次のような課題に取り組むことが不可欠である。
(a)視覚に基づく操作タスクでは、ロボットは、密集した対象記述子のような豊富な情報で物体を視覚的に学習し、理解する必要がある。
b) sim-to-real transfer in roboticsはシミュレーションデータと実データの間のギャップを縮めることを目的としている。
本稿では,オブジェクトを適切な表現で理解するだけでなく,シミュレーションや実データをピクセル一貫性のある統一特徴空間にマップする,高密度オブジェクト記述子sim-to-real dense object nets (srdons)を提案する。
異なるシーンと異なるドメインの画像ペアに対するオブジェクト間マッチング手法を提案する。
この方法はgravenetのような公開データセットを活用することで、現実世界からデータをトレーニングする労力を減らすのに役立つ。
sim-to-realオブジェクト表現の一貫性により、SRDONは様々なsim-to-real操作タスクのビルディングブロックとして機能する。
本研究では,事前学習したSRDONが実世界の訓練をゼロにする各種ロボット作業において,見えない物体や見えない視覚環境の性能を大幅に向上させる実験を行った。
関連論文リスト
- Structured Spatial Reasoning with Open Vocabulary Object Detectors [2.089191490381739]
オブジェクト間の空間的関係に関する推論は多くの実世界のロボット作業において不可欠である。
我々は、リッチな3次元幾何学的特徴と最先端のオープンボキャブラリオブジェクト検出器を統合する構造的確率的アプローチを導入する。
この手法は、空間推論タスクにおける最先端ビジョン・言語モデル(VLM)のゼロショット性能を評価・比較する。
論文 参考訳(メタデータ) (2024-10-09T19:37:01Z) - SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
我々は,シミュレート・トゥ・リアル・トランスファーの能力を高めるための調音認識型分類手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - Reconstructing Objects in-the-wild for Realistic Sensor Simulation [41.55571880832957]
我々は,スパース・イン・ザ・ワイルドデータから正確な幾何学的および現実的な外観を推定する新しい手法であるNeuSimを提案する。
物体の外観を物理にインスパイアされた頑健な反射率表現でモデル化し,実測データに有効である。
実験の結果,NeuSimはスパース・トレーニング・ビューを持つ難解なシナリオに対して,強力なビュー合成性能を有することがわかった。
論文 参考訳(メタデータ) (2023-11-09T18:58:22Z) - Sim2real Transfer Learning for Point Cloud Segmentation: An Industrial
Application Case on Autonomous Disassembly [55.41644538483948]
我々は,点クラウドデータにsim2realTransfer Learningを用いた産業アプリケーションケースを提案する。
合成ポイントクラウドデータの生成と処理方法に関する洞察を提供する。
この問題に対処するために、パッチベースの新しいアテンションネットワークも提案されている。
論文 参考訳(メタデータ) (2023-01-12T14:00:37Z) - Visuomotor Control in Multi-Object Scenes Using Object-Aware
Representations [25.33452947179541]
ロボット作業におけるオブジェクト指向表現学習の有効性を示す。
本モデルは,サンプル効率のよい制御ポリシーを学習し,最先端のオブジェクト技術より優れている。
論文 参考訳(メタデータ) (2022-05-12T19:48:11Z) - Lifelong Ensemble Learning based on Multiple Representations for
Few-Shot Object Recognition [6.282068591820947]
本稿では,複数表現に基づく一生涯のアンサンブル学習手法を提案する。
生涯学習を容易にするため、各アプローチは、オブジェクト情報を即座に保存して検索するメモリユニットを備える。
提案手法の有効性を,オフラインおよびオープンエンドシナリオで評価するために,幅広い実験を行った。
論文 参考訳(メタデータ) (2022-05-04T10:29:10Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。