論文の概要: DoUnseen: Zero-Shot Object Detection for Robotic Grasping
- arxiv url: http://arxiv.org/abs/2304.02833v1
- Date: Thu, 6 Apr 2023 02:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 15:34:32.278857
- Title: DoUnseen: Zero-Shot Object Detection for Robotic Grasping
- Title(参考訳): dounseen: ロボット把持のためのゼロショット物体検出
- Authors: Anas Gouda, Moritz Roidl
- Abstract要約: 我々は、訓練を必要とせず、オブジェクトのいくつかの画像をキャプチャすることで、任意のオブジェクトをクラスとして追加できるゼロショットオブジェクト検出器を開発した。
我々は、未知のデータセット上でゼロショットオブジェクト検出器を評価し、それらのデータセット上で訓練されたMask R-CNNと比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we segment varying numbers of objects where each specific object
represents its own separate class? To make the problem even more realistic, how
can we add and delete classes on the fly without retraining? This is the case
of robotic applications where no datasets of the objects exist or application
that includes thousands of objects (E.g., in logistics) where it is impossible
to train a single model to learn all of the objects. Most current research on
object segmentation for robotic grasping focuses on class-level object
segmentation (E.g., box, cup, bottle), closed sets (specific objects of a
dataset; for example, YCB dataset), or deep learning-based template matching.
In this work, we are interested in open sets where the number of classes is
unknown, varying, and without pre-knowledge about the objects' types. We
consider each specific object as its own separate class. Our goal is to develop
a zero-shot object detector that requires no training and can add any object as
a class just by capturing a few images of the object. Our main idea is to break
the segmentation pipelines into two steps by combining unseen object
segmentation networks cascaded by zero-shot classifiers. We evaluate our
zero-shot object detector on unseen datasets and compare it to a trained Mask
R-CNN on those datasets. The results show that the performance varies from
practical to unsuitable depending on the environment setup and the objects
being handled. The code is available in our DoUnseen library repository.
- Abstract(参考訳): それぞれのオブジェクトが独自のクラスを表す、さまざまなオブジェクトの数をどうやって分割できるのか?
問題をさらに現実的にするために、どうやって再トレーニングせずにクラスを追加して削除できるのか?
これは、オブジェクトのデータセットが存在しないロボットアプリケーションや、数千のオブジェクト(例えば物流)を含むアプリケーションの場合で、単一のモデルをトレーニングしてすべてのオブジェクトを学習することは不可能である。
ロボットグルーピングのためのオブジェクトセグメンテーションに関する最近の研究は、クラスレベルのオブジェクトセグメンテーション(例えば、ボックス、カップ、ボトル)、クローズドセット(データセットの特定のオブジェクト、例えばYCBデータセット)、ディープラーニングベースのテンプレートマッチングに焦点を当てている。
この研究では、クラス数が未知で、変更され、オブジェクトの型について事前に知識がないオープンセットに興味があります。
それぞれの特定のオブジェクトを独立したクラスとみなす。
私たちの目標は、トレーニングを必要とせず、オブジェクトのいくつかのイメージをキャプチャするだけで任意のオブジェクトをクラスとして追加できるゼロショットオブジェクト検出器を開発することです。
我々の主なアイデアは、ゼロショット分類器が組み込んだ見えないオブジェクトセグメンテーションネットワークを組み合わせることで、セグメンテーションパイプラインを2つのステップに分割することです。
未知のデータセット上でゼロショットオブジェクト検出器を評価し、それらのデータセット上でトレーニングされたMask R-CNNと比較する。
その結果,環境設定や処理対象によって性能が実用的から不適当に変化することがわかった。
コードは私たちのDoUnseenライブラリリポジトリで利用可能です。
関連論文リスト
- 1st Place Solution for MOSE Track in CVPR 2024 PVUW Workshop: Complex Video Object Segmentation [72.54357831350762]
本稿では,ビデオオブジェクトのセグメンテーションモデルを提案する。
我々は大規模ビデオオブジェクトセグメンテーションデータセットを用いてモデルを訓練した。
我々のモデルは、複雑なビデオオブジェクトチャレンジのテストセットで1位(textbf84.45%)を達成した。
論文 参考訳(メタデータ) (2024-06-07T03:13:46Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - A Unified Object Counting Network with Object Occupation Prior [32.32999623924954]
既存のオブジェクトカウントタスクは、単一のオブジェクトクラス用に設計されている。
現実の世界で新しいクラスで新しいデータに遭遇するのは避けられない。
我々は、最初の進化するオブジェクトカウントデータセットを構築し、統一されたオブジェクトカウントネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-29T06:42:51Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - FewSOL: A Dataset for Few-Shot Object Learning in Robotic Environments [21.393674766169543]
本稿では,オブジェクト認識のためのFew-Shot Object Learningデータセットについて紹介する。
私たちは、異なる視点から、オブジェクトごとに9つのRGB-D画像を持つ336の現実世界のオブジェクトをキャプチャしました。
評価結果から, ロボット環境下では, 数発の物体分類において, 改良の余地がまだ大きいことが示唆された。
論文 参考訳(メタデータ) (2022-07-06T05:57:24Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。