論文の概要: DoUnseen: Tuning-Free Class-Adaptive Object Detection of Unseen Objects
for Robotic Grasping
- arxiv url: http://arxiv.org/abs/2304.02833v2
- Date: Mon, 27 Nov 2023 12:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 16:28:23.051466
- Title: DoUnseen: Tuning-Free Class-Adaptive Object Detection of Unseen Objects
for Robotic Grasping
- Title(参考訳): dounseen: ロボット把持のための未知物体のチューニングフリークラス適応物体検出
- Authors: Anas Gouda, Moritz Roidl
- Abstract要約: 我々は、微調整を必要としないオブジェクト検出器を開発し、オブジェクトのいくつかの画像をキャプチャすることで、任意のオブジェクトをクラスとして追加できる。
クラス適応型オブジェクト検出器を未知のデータセット上で評価し、それらのデータセット上で訓練されたMask R-CNNと比較する。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we segment varying numbers of objects where each specific object
represents its own separate class? To make the problem even more realistic, how
can we add and delete classes on the fly without retraining or fine-tuning?
This is the case of robotic applications where no datasets of the objects exist
or application that includes thousands of objects (E.g., in logistics) where it
is impossible to train a single model to learn all of the objects. Most current
research on object segmentation for robotic grasping focuses on class-level
object segmentation (E.g., box, cup, bottle), closed sets (specific objects of
a dataset; for example, YCB dataset), or deep learning-based template matching.
In this work, we are interested in open sets where the number of classes is
unknown, varying, and without pre-knowledge about the objects' types. We
consider each specific object as its own separate class. Our goal is to develop
an object detector that requires no fine-tuning and can add any object as a
class just by capturing a few images of the object. Our main idea is to break
the segmentation pipelines into two steps by combining unseen object
segmentation networks cascaded by class-adaptive classifiers. We evaluate our
class-adaptive object detector on unseen datasets and compare it to a trained
Mask R-CNN on those datasets. The results show that the performance varies from
practical to unsuitable depending on the environment setup and the objects
being handled. The code is available in our DoUnseen library repository.
- Abstract(参考訳): それぞれのオブジェクトが独自のクラスを表す、さまざまなオブジェクトの数をどうやって分割できるのか?
問題をもっと現実的にするために、リトレーニングや微調整なしに、どうやってクラスをオンザフライで追加および削除できるのか?
これは、オブジェクトのデータセットが存在しないロボットアプリケーションや、数千のオブジェクト(例えば物流)を含むアプリケーションの場合で、単一のモデルをトレーニングしてすべてのオブジェクトを学習することは不可能である。
ロボットグルーピングのためのオブジェクトセグメンテーションに関する最近の研究は、クラスレベルのオブジェクトセグメンテーション(例えば、ボックス、カップ、ボトル)、クローズドセット(データセットの特定のオブジェクト、例えばYCBデータセット)、ディープラーニングベースのテンプレートマッチングに焦点を当てている。
この研究では、クラス数が未知で、変更され、オブジェクトの型について事前に知識がないオープンセットに興味があります。
それぞれの特定のオブジェクトを独立したクラスとみなす。
私たちの目標は、微調整を必要とせず、オブジェクトのいくつかのイメージをキャプチャするだけで任意のオブジェクトをクラスとして追加できるオブジェクト検出器を開発することです。
我々の主な考え方は、クラス適応型分類器が組み込んだ見えないオブジェクトセグメンテーションネットワークを組み合わせることで、セグメンテーションパイプラインを2つのステップに分割することである。
クラス適応型オブジェクト検出器を未知のデータセット上で評価し、それらのデータセット上で訓練されたMask R-CNNと比較する。
その結果,環境設定や処理対象によって性能が実用的から不適当に変化することがわかった。
コードは私たちのDoUnseenライブラリリポジトリで利用可能です。
関連論文リスト
- 1st Place Solution for MOSE Track in CVPR 2024 PVUW Workshop: Complex Video Object Segmentation [72.54357831350762]
本稿では,ビデオオブジェクトのセグメンテーションモデルを提案する。
我々は大規模ビデオオブジェクトセグメンテーションデータセットを用いてモデルを訓練した。
我々のモデルは、複雑なビデオオブジェクトチャレンジのテストセットで1位(textbf84.45%)を達成した。
論文 参考訳(メタデータ) (2024-06-07T03:13:46Z) - Chat-3D v2: Bridging 3D Scene and Large Language Models with Object
Identifiers [62.232809030044116]
会話中にオブジェクトを自由に参照するためにオブジェクト識別子を導入する。
本稿では,属性認識トークンと関係認識トークンを各オブジェクトに対して学習する2段階アライメント手法を提案する。
ScanQA、ScanRefer、Nr3D/Sr3Dといった従来のデータセットで行った実験は、提案手法の有効性を示した。
論文 参考訳(メタデータ) (2023-12-13T14:27:45Z) - A Unified Object Counting Network with Object Occupation Prior [32.32999623924954]
既存のオブジェクトカウントタスクは、単一のオブジェクトクラス用に設計されている。
現実の世界で新しいクラスで新しいデータに遭遇するのは避けられない。
我々は、最初の進化するオブジェクトカウントデータセットを構築し、統一されたオブジェクトカウントネットワークを提案する。
論文 参考訳(メタデータ) (2022-12-29T06:42:51Z) - SupeRGB-D: Zero-shot Instance Segmentation in Cluttered Indoor
Environments [67.34330257205525]
本研究では,RGB-Dデータからゼロショットのインスタンスセグメンテーション(ZSIS)を探索し,意味的カテゴリに依存しない方法で未知のオブジェクトを識別する。
本稿では,注釈付きオブジェクトを用いて画素のオブジェクト性」を学習し,乱雑な屋内環境における未知のオブジェクトカテゴリに一般化する手法を提案する。
論文 参考訳(メタデータ) (2022-12-22T17:59:48Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - FewSOL: A Dataset for Few-Shot Object Learning in Robotic Environments [21.393674766169543]
本稿では,オブジェクト認識のためのFew-Shot Object Learningデータセットについて紹介する。
私たちは、異なる視点から、オブジェクトごとに9つのRGB-D画像を持つ336の現実世界のオブジェクトをキャプチャしました。
評価結果から, ロボット環境下では, 数発の物体分類において, 改良の余地がまだ大きいことが示唆された。
論文 参考訳(メタデータ) (2022-07-06T05:57:24Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Learning Open-World Object Proposals without Learning to Classify [110.30191531975804]
本研究では,各領域の位置と形状がどの接地トラストオブジェクトとどのように重なり合うかによって,各領域の目的性を純粋に推定する,分類不要なオブジェクトローカライゼーションネットワークを提案する。
この単純な戦略は一般化可能な対象性を学び、クロスカテゴリの一般化に関する既存の提案より優れている。
論文 参考訳(メタデータ) (2021-08-15T14:36:02Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。