論文の概要: Instance Segmentation of Visible and Occluded Regions for Finding and
Picking Target from a Pile of Objects
- arxiv url: http://arxiv.org/abs/2001.07475v1
- Date: Tue, 21 Jan 2020 12:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 00:30:06.691967
- Title: Instance Segmentation of Visible and Occluded Regions for Finding and
Picking Target from a Pile of Objects
- Title(参考訳): 物体の杭から対象物を見つけたり拾ったりするための可視・咬合領域のインスタンスセグメンテーション
- Authors: Kentaro Wada, Shingo Kitagawa, Kei Okada, Masayuki Inaba
- Abstract要約: 本研究では,対象物体の発見・把握が可能な物体の山から対象物を選択するロボットシステムを提案する。
既存のインスタンスセグメンテーションモデルを新しいリルックアーキテクチャで拡張し、モデルがインスタンス間の関係を明示的に学習する。
また、画像合成により、人間のアノテーションを使わずに新しいオブジェクトを処理できるシステムを構築する。
- 参考スコア(独自算出の注目度): 25.836334764387498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a robotic system for picking a target from a pile of objects that
is capable of finding and grasping the target object by removing obstacles in
the appropriate order. The fundamental idea is to segment instances with both
visible and occluded masks, which we call `instance occlusion segmentation'. To
achieve this, we extend an existing instance segmentation model with a novel
`relook' architecture, in which the model explicitly learns the inter-instance
relationship. Also, by using image synthesis, we make the system capable of
handling new objects without human annotations. The experimental results show
the effectiveness of the relook architecture when compared with a conventional
model and of the image synthesis when compared to a human-annotated dataset. We
also demonstrate the capability of our system to achieve picking a target in a
cluttered environment with a real robot.
- Abstract(参考訳): 本稿では,障害物を適切な順序で除去することにより,対象物を発見・把握できる物体の山から目標を抽出するロボットシステムを提案する。
基本的な考え方は、可視マスクと隠蔽マスクの両方でインスタンスを分割することであり、これを 'instance occlusion segmentation' と呼ぶ。
これを実現するために、既存のインスタンスセグメンテーションモデルを新しい 'relook' アーキテクチャで拡張し、モデルがインスタンス間の関係を明示的に学習する。
また、画像合成により、人間のアノテーションを使わずに新しいオブジェクトを処理できるシステムを構築する。
実験結果から,従来のモデルと比較した場合のリルックアーキテクチャの有効性と,人間の注釈付きデータセットと比較した場合の画像合成の有効性が示された。
また, 本システムは, 実ロボットを用いて, 乱雑な環境下で目標を選定する能力を示す。
関連論文リスト
- ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Perceive, Excavate and Purify: A Novel Object Mining Framework for
Instance Segmentation [4.375012768093524]
本稿では,新しいオブジェクトマイニングフレームワークを提案する。
まず、サブネットを知覚するセマンティクスを導入し、ボトムアップから明らかなインスタンスに属するピクセルをキャプチャする。
このメカニズムでは、事前認識されたセマンティクスは分類と位置を持つ元のインスタンスと見なされ、これらの元のインスタンスを取り巻く識別不能なオブジェクトはマイニングされる。
論文 参考訳(メタデータ) (2023-04-18T08:47:03Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Semantically Grounded Object Matching for Robust Robotic Scene
Rearrangement [21.736603698556042]
そこで本研究では,大規模な事前学習型視覚言語モデルを用いて,オブジェクトをクロスインスタンス設定でマッチングするオブジェクトマッチング手法を提案する。
これにより、クロスインスタンス環境でのマッチング性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-11-15T18:39:43Z) - Unseen Object Amodal Instance Segmentation via Hierarchical Occlusion
Modeling [0.0]
非構造環境におけるロボットシステムには,非構造オブジェクトのインスタンス対応セグメンテーションが不可欠である。
本論文は,1) 可視マスク,2) 可視マスク,3) 不可視オブジェクトインスタンスの隠蔽を検出するために,Unseen Object Amodal Instances (UOAIS) に対処する。
提案手法を3つのベンチマーク(テーブルトップ,屋内,ビン環境)で評価し,SOTA(State-of-the-art)性能を達成した。
論文 参考訳(メタデータ) (2021-09-23T01:55:42Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - A Deep Learning Approach to Object Affordance Segmentation [31.221897360610114]
我々は,ビデオと静的画像の両方において,画素単位の価格ラベルを推定するオートエンコーダを設計する。
本モデルは,ソフトアテンション機構を用いて,オブジェクトラベルやバウンディングボックスの必要性を克服する。
本モデルは,SOR3D-AFF上での強い教師付き手法と比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-18T15:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。