論文の概要: ISAR: A Benchmark for Single- and Few-Shot Object Instance Segmentation
and Re-Identification
- arxiv url: http://arxiv.org/abs/2311.02734v1
- Date: Sun, 5 Nov 2023 18:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:00:12.728927
- Title: ISAR: A Benchmark for Single- and Few-Shot Object Instance Segmentation
and Re-Identification
- Title(参考訳): ISAR: シングルショットとFewショットオブジェクトインスタンスのセグメンテーションと再同定のためのベンチマーク
- Authors: Nicolas Gorlo, Kenneth Blomqvist, Francesco Milano and Roland Siegwart
- Abstract要約: 単発および少数発のオブジェクト識別のためのベンチマークおよびベースライン手法であるISARを提案する。
地層構造意味アノテーションを用いた半合成的ビデオシーケンスデータセットを提供する。
我々のベンチマークは、マルチオブジェクト追跡、ビデオオブジェクト、再識別の新たな研究動向と一致している。
- 参考スコア(独自算出の注目度): 24.709695178222862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most object-level mapping systems in use today make use of an upstream
learned object instance segmentation model. If we want to teach them about a
new object or segmentation class, we need to build a large dataset and retrain
the system. To build spatial AI systems that can quickly be taught about new
objects, we need to effectively solve the problem of single-shot object
detection, instance segmentation and re-identification. So far there is neither
a method fulfilling all of these requirements in unison nor a benchmark that
could be used to test such a method. Addressing this, we propose ISAR, a
benchmark and baseline method for single- and few-shot object Instance
Segmentation And Re-identification, in an effort to accelerate the development
of algorithms that can robustly detect, segment, and re-identify objects from a
single or a few sparse training examples. We provide a semi-synthetic dataset
of video sequences with ground-truth semantic annotations, a standardized
evaluation pipeline, and a baseline method. Our benchmark aligns with the
emerging research trend of unifying Multi-Object Tracking, Video Object
Segmentation, and Re-identification.
- Abstract(参考訳): 現在使われているほとんどのオブジェクトレベルのマッピングシステムは、上流で学んだオブジェクトインスタンスのセグメンテーションモデルを利用している。
新しいオブジェクトやセグメンテーションクラスについて教えたい場合は、大規模なデータセットを構築し、システムを再トレーニングする必要があります。
新しい物体について素早く教えられる空間AIシステムを構築するためには、単発物体の検出、インスタンスのセグメンテーション、再同定といった問題を効果的に解決する必要がある。
これまでのところ、これらの要件をすべて一斉に満たすメソッドも、そのようなメソッドをテストするのに使えるベンチマークもない。
これに対応するために,単発および少数発のオブジェクトのインスタンス分割と再識別のためのベンチマークおよびベースライン手法であるISARを提案する。
地上意味アノテーションを用いたビデオシーケンスの半合成データセット、標準化された評価パイプライン、およびベースライン方法を提供する。
我々のベンチマークは、マルチオブジェクトトラッキング、ビデオオブジェクトセグメンテーション、再識別の新たな研究動向と一致している。
関連論文リスト
- Frustratingly Simple but Effective Zero-shot Detection and Segmentation:
Analysis and a Strong Baseline [45.03824571286718]
オブジェクト検出とセグメンテーションの方法は、トレーニングに豊富なインスタンスレベルのアノテーションを必要とすることが多い。
これを解決するために、ゼロショットオブジェクト検出(またはセグメンテーション)のタスクは、管理できないカテゴリのオブジェクトインスタンスを特定し、ローカライズするための効果的な方法を学ぶことを目的としている。
本研究では,これらの設計選択を幅広く研究し,単純かつ極めて効果的なゼロショット認識手法を慎重に構築する。
論文 参考訳(メタデータ) (2023-02-14T20:00:30Z) - BURST: A Benchmark for Unifying Object Recognition, Segmentation and
Tracking in Video [58.71785546245467]
複数の既存のベンチマークには、ビデオ内のオブジェクトのトラッキングとセグメンテーションが含まれる。
異なるベンチマークデータセットとメトリクスを使用するため、それらの相互作用はほとんどありません。
高品質なオブジェクトマスクを備えた数千の多様なビデオを含むデータセットであるBURSTを提案する。
すべてのタスクは、同じデータと同等のメトリクスを使って評価されます。
論文 参考訳(メタデータ) (2022-09-25T01:27:35Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - Scalable Video Object Segmentation with Identification Mechanism [125.4229430216776]
本稿では,半教師付きビデオオブジェクト(VOS)のスケーラブルで効果的なマルチオブジェクトモデリングを実現する上での課題について検討する。
AOT(Associating Objects with Transformers)とAOST(Associating Objects with Scalable Transformers)の2つの革新的なアプローチを提案する。
当社のアプローチは最先端の競合に勝って,6つのベンチマークすべてにおいて,例外的な効率性とスケーラビリティを一貫して示しています。
論文 参考訳(メタデータ) (2022-03-22T03:33:27Z) - Iterative Learning for Instance Segmentation [0.0]
最先端のディープニューラルネットワークモデルは、このタスクでうまく機能するために、大量のラベル付きデータを必要とする。
本稿では,複数の類似したオブジェクトからなるデータセットのインスタンスの検出,セグメント化,アノテーション化が可能な反復学習およびアノテーション手法を提案する。
2つの異なるデータセットの実験は、視覚検査に関連する異なるアプリケーションにおけるアプローチの有効性を示している。
論文 参考訳(メタデータ) (2022-02-18T10:25:02Z) - Associating Objects with Transformers for Video Object Segmentation [74.51719591192787]
本稿では,複数のオブジェクトを一様に一致・復号化するためのAssociating Objects with Transformers (AOT)アプローチを提案する。
AOTは複数のターゲットを同一の高次元埋め込み空間に関連付けるための識別機構を用いる。
第3回大規模ビデオオブジェクトチャレンジでは1位にランクインした。
論文 参考訳(メタデータ) (2021-06-04T17:59:57Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z) - Target-Aware Object Discovery and Association for Unsupervised Video
Multi-Object Segmentation [79.6596425920849]
本稿では,教師なしビデオマルチオブジェクトセグメンテーションの課題について述べる。
より正確で効率的な時間区分のための新しいアプローチを紹介します。
DAVIS$_17$とYouTube-VISに対する提案手法を評価した結果,セグメント化精度と推論速度の両方において最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-10T14:39:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。