論文の概要: Self-supervised Transfer Learning for Instance Segmentation through
Physical Interaction
- arxiv url: http://arxiv.org/abs/2005.09484v1
- Date: Tue, 19 May 2020 14:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 14:34:44.323064
- Title: Self-supervised Transfer Learning for Instance Segmentation through
Physical Interaction
- Title(参考訳): 物理相互作用によるインスタンスセグメンテーションのための自己教師伝達学習
- Authors: Andreas Eitel and Nico Hauff and Wolfram Burgard
- Abstract要約: 本稿では,ロボットが自己指導型で環境と対話してオブジェクトをセグメント化することを学習するための移動学習手法を提案する。
我々のロボットは未知の物体をテーブルの上に押し込み、光学フローからの情報を用いて物体マスクの形でトレーニングラベルを作成する。
学習したネットワーク(SelfDeepMask)を,難易度と散らかったシーンを新しいオブジェクトで表現した実画像群を用いて評価した。
- 参考スコア(独自算出の注目度): 25.956451840257916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instance segmentation of unknown objects from images is regarded as relevant
for several robot skills including grasping, tracking and object sorting.
Recent results in computer vision have shown that large hand-labeled datasets
enable high segmentation performance. To overcome the time-consuming process of
manually labeling data for new environments, we present a transfer learning
approach for robots that learn to segment objects by interacting with their
environment in a self-supervised manner. Our robot pushes unknown objects on a
table and uses information from optical flow to create training labels in the
form of object masks. To achieve this, we fine-tune an existing DeepMask
network for instance segmentation on the self-labeled training data acquired by
the robot. We evaluate our trained network (SelfDeepMask) on a set of real
images showing challenging and cluttered scenes with novel objects. Here,
SelfDeepMask outperforms the DeepMask network trained on the COCO dataset by
9.5% in average precision. Furthermore, we combine our approach with recent
approaches for training with noisy labels in order to better cope with induced
label noise.
- Abstract(参考訳): 画像からの未知のオブジェクトのインスタンスセグメンテーションは、把握、追跡、オブジェクトソートを含むいくつかのロボットスキルに関係していると考えられている。
近年のコンピュータビジョンの結果、手動ラベル付きデータセットは高いセグメンテーション性能を実現することが示されている。
新しい環境におけるデータのラベル付けに時間を要することを克服するために,ロボットが環境と対話してオブジェクトをセグメント化することを学ぶための移動学習手法を提案する。
ロボットは未知の物体をテーブル上に押し込み、光学フローから情報を得て、オブジェクトマスクの形でトレーニングラベルを作成する。
そこで我々は,ロボットが取得した自己ラベル付きトレーニングデータに基づいて,既存のDeepMaskネットワークを微調整する。
学習したネットワーク(selfdeepmask)を実画像のセットで評価し,新しい物体を用いた難易度と雑然としたシーンを示す。
ここで、SelfDeepMaskはCOCOデータセットでトレーニングされたDeepMaskネットワークを平均精度で9.5%上回っている。
さらに,提案手法と最近の雑音ラベルの学習手法を組み合わせることで,ラベルノイズの低減を図る。
関連論文リスト
- LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - LOCATE: Self-supervised Object Discovery via Flow-guided Graph-cut and
Bootstrapped Self-training [13.985488693082981]
動作情報と外観情報を利用して高品質な物体分割マスクを生成する自己教師型物体発見手法を提案する。
複数の標準ビデオオブジェクトセグメンテーション、画像のサリエンシ検出、オブジェクトセグメンテーションベンチマークにおいて、LOCATEと呼ばれるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-22T07:27:09Z) - Self-Supervised Unseen Object Instance Segmentation via Long-Term Robot
Interaction [23.572104156617844]
本研究では,オブジェクトとの長期的なインタラクションを活用することで,オブジェクトのインスタンス分割を現実の世界で改善するための新しいロボットシステムを提案する。
本システムは,ロボットのプッシュ動作の後,オブジェクトのセグメント化の決定に反する。
システムによって収集された実世界データを用いて合成データに基づいて訓練されたセグメンテーションネットワークを微調整することで,システムの有用性を実証する。
論文 参考訳(メタデータ) (2023-02-07T23:11:29Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - REGRAD: A Large-Scale Relational Grasp Dataset for Safe and
Object-Specific Robotic Grasping in Clutter [52.117388513480435]
本稿では,オブジェクト間の関係のモデル化を継続するregradという新しいデータセットを提案する。
データセットは2D画像と3Dポイントクラウドの両方で収集されます。
ユーザは、好きなだけ多くのデータを生成するために、自由に独自のオブジェクトモデルをインポートできる。
論文 参考訳(メタデータ) (2021-04-29T05:31:21Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z) - Reducing the Annotation Effort for Video Object Segmentation Datasets [50.893073670389164]
ピクセルマスクでフレームを密にラベル付けしても 大規模なデータセットにはスケールしない
我々は、より安価なバウンディングボックスアノテーションからピクセルレベルで擬似ラベルを自動生成するために、深層畳み込みネットワークを使用します。
我々は新しいTAO-VOSベンチマークを取得し、www.vision.rwth-aachen.de/page/taovosで公開している。
論文 参考訳(メタデータ) (2020-11-02T17:34:45Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - Co-training for On-board Deep Object Detection [0.0]
人間のラベル付きバウンディングボックスを頼りにすることにより、最高のディープビジョンベースのオブジェクト検出器を教師付きで訓練する。
共同学習は、未ラベル画像における自己ラベルオブジェクトの半教師付き学習手法である。
我々は、協調学習がオブジェクトのラベル付けを緩和し、タスクに依存しないドメイン適応と単独で作業するためのパラダイムであることを示す。
論文 参考訳(メタデータ) (2020-08-12T19:08:59Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Self-Supervised Object-in-Gripper Segmentation from Robotic Motions [27.915309216800125]
ロボットが把握した未知の物体をセグメント化するための頑健な解法を提案する。
我々はRGBビデオシーケンスにおける動きと時間的手がかりを利用する。
当社のアプローチは、カメラキャリブレーションや3Dモデル、あるいは潜在的に不完全な深度データとは独立して、完全に自己管理されている。
論文 参考訳(メタデータ) (2020-02-11T15:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。