論文の概要: Group-On: Boosting One-Shot Segmentation with Supportive Query
- arxiv url: http://arxiv.org/abs/2404.11871v1
- Date: Thu, 18 Apr 2024 03:10:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 13:11:02.799605
- Title: Group-On: Boosting One-Shot Segmentation with Supportive Query
- Title(参考訳): Group-On: サポートクエリによるワンショットセグメンテーションの強化
- Authors: Hanjing Zhou, Mingze Yin, JinTai Chen, Danny Chen, Jian Wu,
- Abstract要約: ワンショットセマンティックセグメンテーション(One-shot semantic segmentation)は、ONEアノテートされた同じクラスのサポートイメージのみを与えられたクエリイメージをセグメントすることを目的としている。
本稿では,複数の問合せ画像をバッチにまとめるグループオンという,One-shotセマンティックセマンティックセマンティックセマンティクスのための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 8.623405412540247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot semantic segmentation aims to segment query images given only ONE annotated support image of the same class. This task is challenging because target objects in the support and query images can be largely different in appearance and pose (i.e., intra-class variation). Prior works suggested that incorporating more annotated support images in few-shot settings boosts performances but increases costs due to additional manual labeling. In this paper, we propose a novel approach for ONE-shot semantic segmentation, called Group-On, which packs multiple query images in batches for the benefit of mutual knowledge support within the same category. Specifically, after coarse segmentation masks of the batch of queries are predicted, query-mask pairs act as pseudo support data to enhance mask predictions mutually, under the guidance of a simple Group-On Voting module. Comprehensive experiments on three standard benchmarks show that, in the ONE-shot setting, our Group-On approach significantly outperforms previous works by considerable margins. For example, on the COCO-20i dataset, we increase mIoU scores by 8.21% and 7.46% on ASNet and HSNet baselines, respectively. With only one support image, Group-On can be even competitive with the counterparts using 5 annotated support images.
- Abstract(参考訳): ワンショットセマンティックセグメンテーション(One-shot semantic segmentation)は、ONEアノテートされた同じクラスのサポートイメージのみを与えられたクエリイメージをセグメントすることを目的としている。
このタスクは、サポートやクエリ画像のターゲットオブジェクトが外観やポーズ(クラス内のバリエーション)において大きく異なる可能性があるため、難しい。
以前の作業では、アノテーション付きのサポートイメージを数ショット設定に組み込むことでパフォーマンスが向上するが、手動ラベリングの追加によるコストの上昇が示唆されていた。
本稿では,複数の問合せイメージをバッチにまとめて,同じカテゴリ内での相互知識支援のメリットを享受するグループオンという,ワンショットセマンティックセマンティックセマンティックセマンティクスの新たなアプローチを提案する。
具体的には、クエリのバッチの粗いセグメンテーションマスクが予測された後、クエリマスクペアが擬似サポートデータとして機能し、単純なGroup-On Votingモジュールのガイダンスの下で、マスク予測を相互に強化する。
3つの標準ベンチマークに関する総合的な実験によると、One-shot設定では、Group-Onアプローチは、以前の研究よりもかなりのマージンで大幅に優れていた。
例えば、COCO-20iデータセットでは、それぞれASNetとHSNetのベースラインでmIoUスコアが8.21%増加し、7.46%増加した。
1つのサポートイメージだけで、Group-Onは5つのアノテートされたサポートイメージを使用するものと競合する。
関連論文リスト
- MatchSeg: Towards Better Segmentation via Reference Image Matching [5.55078598520531]
ほとんどショットラーニングは、サポートセットとして知られる小さなラベル付きデータセットを使用して、新しいラベル付きイメージの予測ラベルをガイドすることで、注釈付きデータの必要性を克服することを目的としている。
このパラダイムに着想を得たMatchSegは,戦略的基準画像マッチングによる医用画像のセグメンテーションを強化する新しいフレームワークである。
論文 参考訳(メタデータ) (2024-03-23T18:04:58Z) - Boosting Few-Shot Segmentation via Instance-Aware Data Augmentation and
Local Consensus Guided Cross Attention [7.939095881813804]
少ないショットセグメンテーションは、注釈付き画像のみを提供する新しいタスクに迅速に適応できるセグメンテーションモデルをトレーニングすることを目的としている。
本稿では,対象オブジェクトの相対的サイズに基づいて,サポートイメージを拡大するIDA戦略を提案する。
提案したIDAは,サポートセットの多様性を効果的に向上し,サポートイメージとクエリイメージ間の分散一貫性を促進する。
論文 参考訳(メタデータ) (2024-01-18T10:29:10Z) - Dense Affinity Matching for Few-Shot Segmentation [83.65203917246745]
Few-Shot (FSS) は、新しいクラスイメージをいくつかのサンプルで分割することを目的としている。
本稿では,サポートクエリ間の相互作用を生かした密接な親和性マッチングフレームワークを提案する。
我々のフレームワークは0.68万のパラメータしか持たない異なる設定で非常に競争力のある性能を示す。
論文 参考訳(メタデータ) (2023-07-17T12:27:15Z) - Reflection Invariance Learning for Few-shot Semantic Segmentation [53.20466630330429]
Few-shot semantic segmentation (FSS) は、いくつかのアノテーション付きサポートイメージを持つクエリイメージにおいて、目に見えないクラスのオブジェクトをセグメントすることを目的としている。
本稿では,マルチビューマッチング方式でリフレクション不変性をマイニングするための,新しい数ショットセグメンテーションフレームワークを提案する。
PASCAL-$5textiti$とCOCO-$20textiti$データセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-01T15:14:58Z) - Dense Cross-Query-and-Support Attention Weighted Mask Aggregation for
Few-Shot Segmentation [25.605580031284052]
セマンティック・センス(FSS)は注目されている。
FSSの目標は、ターゲットクラスの注釈付きサポートイメージのみを付与したクエリイメージでターゲットオブジェクトをセグメントすることである。
我々は,前景情報と背景情報の両方をフル活用したAMADC (Pixel-wise Cross-query-and- Support Attention weighted Mask Aggregation) を提案する。
論文 参考訳(メタデータ) (2022-07-18T12:12:42Z) - Few-shot Segmentation with Optimal Transport Matching and Message Flow [50.9853556696858]
サポート情報を完全に活用するためには、少数ショットのセマンティックセマンティックセグメンテーションが不可欠である。
本稿では,最適輸送マッチングモジュールを備えた通信マッチングネットワーク(CMNet)を提案する。
PASCAL VOC 2012、MS COCO、FSS-1000データセットによる実験により、我々のネットワークは最新の数ショットセグメンテーション性能を新たに達成した。
論文 参考訳(メタデータ) (2021-08-19T06:26:11Z) - Few-Shot Segmentation with Global and Local Contrastive Learning [51.677179037590356]
提案するグローバルローカルコントラスト学習を用いて,ラベルのない画像からクエリ情報を学習するための先行抽出器を提案する。
クエリー画像の以前の領域マップを生成し、オブジェクトの位置を判断し、サポート機能とのクロスインタラクションを行うためのガイダンスを作成する。
ベルとホイッスルを使わずに、提案手法は、数発のセグメンテーションタスクに対して、新しい最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-08-11T15:52:22Z) - Few-Shot Segmentation via Cycle-Consistent Transformer [74.49307213431952]
本稿では,サポートとターゲット画像間の画素ワイドな関係を利用して,数ショットのセマンティックセマンティックセグメンテーション作業を容易にすることに焦点を当てる。
本稿では, 有害なサポート機能を除去するために, 新規なサイクル一貫性アテンション機構を提案する。
提案したCyCTRは,従来の最先端手法と比較して著しく改善されている。
論文 参考訳(メタデータ) (2021-06-04T07:57:48Z) - Self-Guided and Cross-Guided Learning for Few-Shot Segmentation [12.899804391102435]
単発セグメンテーションのための自己誘導学習手法を提案する。
注釈付き支持画像の初期予測を行うことにより、被覆および検出された前景領域を一次および補助支持ベクトルに符号化する。
プライマリサポートベクターと補助サポートベクターの両方を集約することで、クエリイメージ上でより良いセグメンテーション性能が得られます。
論文 参考訳(メタデータ) (2021-03-30T07:36:41Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。