論文の概要: Camouflaged Instance Segmentation: Dataset and Benchmark Suite
- arxiv url: http://arxiv.org/abs/2103.17123v1
- Date: Wed, 31 Mar 2021 14:46:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 21:30:50.912345
- Title: Camouflaged Instance Segmentation: Dataset and Benchmark Suite
- Title(参考訳): Camouflaged Instance Segmentation: データセットとベンチマークスイート
- Authors: Trung-Nghia Le, Yubo Cao, Tan-Cong Nguyen, Khanh-Duy Nguyen,
Thanh-Toan Do, Minh-Triet Tran, Tam V. Nguyen
- Abstract要約: 量と多様性の観点から,新たな大規模データセットであるcamo++を導入する。
新しいデータセットは、階層的なピクセル単位の地上構造を持つ画像の数を大幅に増加させる。
新たに構築したcamo++データセット上で,最先端インスタンスセグメンテーション検出器の広範な評価を行う。
- 参考スコア(独自算出の注目度): 34.83184353396269
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper pushes the envelope on camouflaged regions to decompose them into
meaningful components, namely, camouflaged instances. To promote the new task
of camouflaged instance segmentation, we introduce a new large-scale dataset,
namely CAMO++, by extending our preliminary CAMO dataset (camouflaged object
segmentation) in terms of quantity and diversity. The new dataset substantially
increases the number of images with hierarchical pixel-wise ground-truths. We
also provide a benchmark suite for the task of camouflaged instance
segmentation. In particular, we conduct extensive evaluation of
state-of-the-art instance segmentation detectors on our newly constructed
CAMO++ dataset in various scenarios. The dataset, evaluation suite, and
benchmark will be publicly available at our project page.
- Abstract(参考訳): 本稿では, カモフラージュ領域のエンベロープを, 有意義な構成要素, すなわちカモフラージュ領域に分解する。
カモフラージュされたインスタンスセグメンテーションの新たなタスクを促進するため、キャモフラージュされたオブジェクトセグメンテーション(camouflaged object segmentation)を量と多様性の観点から拡張することで、CAMO++と呼ばれる新しい大規模データセットを導入する。
新しいデータセットは、階層的なピクセル単位の地上構造を持つ画像の数を大幅に増加させる。
また、camouflagedインスタンスセグメンテーションのタスクのためのベンチマークスイートも提供します。
特に,新たに構築したCAMO++データセットのさまざまなシナリオにおいて,最先端のインスタンスセグメンテーション検出を広範囲に評価する。
データセット、評価スイート、ベンチマークは、プロジェクトのページで公開されます。
関連論文リスト
- A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Ensembling Instance and Semantic Segmentation for Panoptic Segmentation [0.0]
メソッドはまず、インスタンスセグメンテーションとセマンティックセグメンテーションを別々に実行し、2つを組み合わせてパン光学セグメンテーション結果を生成する。
トレーニングデータにおけるデータ不均衡問題に対処するために,インスタンスセグメンテーションにおけるMask R-CNNのエキスパートモデルをいくつか追加する。
セグメンテーションでは,様々なバックボーンを持つモデルを訓練し,セグメンテーション結果をさらに強化するアンサンブル戦略を用いた。
論文 参考訳(メタデータ) (2023-04-20T14:02:01Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Semantic Attention and Scale Complementary Network for Instance
Segmentation in Remote Sensing Images [54.08240004593062]
本稿では,セマンティックアテンション(SEA)モジュールとスケール補完マスクブランチ(SCMB)で構成される,エンドツーエンドのマルチカテゴリインスタンスセグメンテーションモデルを提案する。
SEAモジュールは、機能マップ上の興味あるインスタンスのアクティベーションを強化するために、追加の監督を備えた、単純な完全な畳み込みセマンティックセマンティックセマンティクスブランチを含んでいる。
SCMBは、元のシングルマスクブランチをトリデントマスクブランチに拡張し、異なるスケールで補完マスクの監視を導入する。
論文 参考訳(メタデータ) (2021-07-25T08:53:59Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Prototypical Cross-Attention Networks for Multiple Object Tracking and
Segmentation [95.74244714914052]
複数のオブジェクトのトラッキングとセグメンテーションには、与えられたクラスのセットに属するオブジェクトを検出し、追跡し、セグメンテーションする必要がある。
オンライン上でリッチ・テンポラル情報を活用するプロトタイプ・クロス・アテンション・ネットワーク(PCAN)を提案する。
PCANは、Youtube-VISとBDD100Kデータセットで、現在のビデオインスタンス追跡とセグメンテーションコンテストの勝者を上回っている。
論文 参考訳(メタデータ) (2021-06-22T17:57:24Z) - SegmentMeIfYouCan: A Benchmark for Anomaly Segmentation [111.61261419566908]
ディープニューラルネットワーク(DNN)は通常、閉集合のセマンティッククラスで訓練される。
未発見のオブジェクトを扱うには不備だ。
このような物体の検出と局在化は、自動運転の認識などの安全クリティカルなアプリケーションに不可欠です。
論文 参考訳(メタデータ) (2021-04-30T07:58:19Z) - FAPIS: A Few-shot Anchor-free Part-based Instance Segmenter [35.103437828235826]
新しい数ショットアンカーフリーのパートベースインスタンスセグメンタFAPISを評価します。
主な目新しさは、トレーニングオブジェクトクラス間で共有される潜伏オブジェクト部分の明示的なモデリングである。
ベンチマークCOCO-20iデータセットによる評価は,その技術状況を大きく上回っていることを示す。
論文 参考訳(メタデータ) (2021-03-31T19:09:43Z) - Instance segmentation of buildings using keypoints [26.220921532554136]
本稿では,高分解能リモートセンシング画像におけるセグメンテーションを構築するための新しいインスタンスセグメンテーションネットワークを提案する。
検出されたキーポイントはその後、建物のセマンティック境界である閉ポリゴンとして再構成される。
我々のネットワークは、幾何学的詳細をよく保存できるボトムアップのインスタンスセグメンテーション手法である。
論文 参考訳(メタデータ) (2020-06-06T13:11:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。