論文の概要: Unseen Object Instance Segmentation for Robotic Environments
- arxiv url: http://arxiv.org/abs/2007.08073v2
- Date: Thu, 14 Oct 2021 02:56:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 23:52:04.551885
- Title: Unseen Object Instance Segmentation for Robotic Environments
- Title(参考訳): ロボット環境のための見えないオブジェクトインスタンスセグメンテーション
- Authors: Christopher Xie, Yu Xiang, Arsalan Mousavian, Dieter Fox
- Abstract要約: 本稿では,テーブルトップ環境において未確認のオブジェクトインスタンスをセグメント化する手法を提案する。
UOIS-Netは2つのステージで構成されている: まず、オブジェクトのインスタンス中心の投票を2Dまたは3Dで生成するために、深さでのみ動作する。
驚くべきことに、我々のフレームワークは、RGBが非フォトリアリスティックな合成RGB-Dデータから学習することができる。
- 参考スコア(独自算出の注目度): 67.88276573341734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to function in unstructured environments, robots need the ability to
recognize unseen objects. We take a step in this direction by tackling the
problem of segmenting unseen object instances in tabletop environments.
However, the type of large-scale real-world dataset required for this task
typically does not exist for most robotic settings, which motivates the use of
synthetic data. Our proposed method, UOIS-Net, separately leverages synthetic
RGB and synthetic depth for unseen object instance segmentation. UOIS-Net is
comprised of two stages: first, it operates only on depth to produce object
instance center votes in 2D or 3D and assembles them into rough initial masks.
Secondly, these initial masks are refined using RGB. Surprisingly, our
framework is able to learn from synthetic RGB-D data where the RGB is
non-photorealistic. To train our method, we introduce a large-scale synthetic
dataset of random objects on tabletops. We show that our method can produce
sharp and accurate segmentation masks, outperforming state-of-the-art methods
on unseen object instance segmentation. We also show that our method can
segment unseen objects for robot grasping.
- Abstract(参考訳): 非構造環境で機能するためには、ロボットは見えない物体を認識する能力が必要である。
我々は、テーブルトップ環境で見えないオブジェクトインスタンスをセグメント化する問題に取り組むことで、この方向に一歩踏み出します。
しかしながら、このタスクに必要な大規模な実世界のデータセットの型は通常、ほとんどのロボット環境では存在せず、合成データの使用を動機付けている。
提案手法であるuois-netは,オブジェクトインスタンスのセグメンテーションに合成rgbと合成深度を別々に利用する。
UOIS-Netは2つのステージで構成されている: まず、オブジェクトインスタンスセンターの投票を2Dまたは3Dで生成し、それらを粗い初期マスクに組み立てる。
第二に、これらの初期マスクはRGBを用いて洗練されている。
驚くべきことに、我々のフレームワークは、RGBが非フォトリアリスティックな合成RGB-Dデータから学習することができる。
そこで本研究では,タブレット上のランダムオブジェクトの大規模合成データセットを提案する。
提案手法は,未確認のオブジェクトインスタンスのセグメント化において,最先端かつ高精度なセグメンテーションマスクを生成することができることを示す。
また,本手法はロボットのグルーピングにおいて,見えない物体をセグメント化できることを示す。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - Learning Sim-to-Real Dense Object Descriptors for Robotic Manipulation [4.7246285569677315]
我々はSim-to-Real Dense Object Nets(SRDONs)という,オブジェクトを適切な表現で理解するだけでなく,シミュレートされた実データをピクセル整合性を持った統一された特徴空間にマップする,高密度オブジェクト記述子を提案する。
本研究では,事前学習したSRDONが実世界の訓練をゼロにした各種ロボット作業において,見えない物体や見えない視覚環境の性能を著しく向上させる実験を行った。
論文 参考訳(メタデータ) (2023-04-18T02:28:55Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - Unseen Object Instance Segmentation with Fully Test-time RGB-D
Embeddings Adaptation [14.258456366985444]
最近では、大規模な合成データのRGB-D機能を活用し、実世界のシナリオにモデルを適用するのが一般的である。
本稿では,Sim2Realドメイン間の適応プロセスを再強調する。
本稿では,BatchNorm層のパラメータに基づいて,完全テスト時間RGB-D埋め込み適応(FTEA)を行うフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-21T02:35:20Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - IFOR: Iterative Flow Minimization for Robotic Object Rearrangement [92.97142696891727]
IFOR(Iterative Flow Minimization for Robotic Object Rearrangement)は、未知物体の物体再構成問題に対するエンドツーエンドの手法である。
本手法は,合成データのみを訓練しながら,散在するシーンや実世界に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-02-01T20:03:56Z) - Unseen Object Amodal Instance Segmentation via Hierarchical Occlusion
Modeling [0.0]
非構造環境におけるロボットシステムには,非構造オブジェクトのインスタンス対応セグメンテーションが不可欠である。
本論文は,1) 可視マスク,2) 可視マスク,3) 不可視オブジェクトインスタンスの隠蔽を検出するために,Unseen Object Amodal Instances (UOAIS) に対処する。
提案手法を3つのベンチマーク(テーブルトップ,屋内,ビン環境)で評価し,SOTA(State-of-the-art)性能を達成した。
論文 参考訳(メタデータ) (2021-09-23T01:55:42Z) - Learning RGB-D Feature Embeddings for Unseen Object Instance
Segmentation [67.88276573341734]
合成データからRGB-D特徴埋め込みを学習し,オブジェクトのインスタンスセグメンテーションを未確認する手法を提案する。
距離学習損失関数を用いて画素単位の機能埋め込みを学習する。
新たな2段階クラスタリングアルゴリズムにより,セグメンテーションの精度をさらに向上する。
論文 参考訳(メタデータ) (2020-07-30T00:23:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。