論文の概要: Symmetrical Joint Learning Support-query Prototypes for Few-shot Segmentation
- arxiv url: http://arxiv.org/abs/2407.19306v1
- Date: Sat, 27 Jul 2024 17:37:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 18:51:52.301704
- Title: Symmetrical Joint Learning Support-query Prototypes for Few-shot Segmentation
- Title(参考訳): ファウショットセグメンテーションのための対称性付き共同学習支援システム
- Authors: Qun Li, Baoquan Sun, Fu Xiao, Yonggang Qi, Bir Bhanu,
- Abstract要約: クラス内変動の重要な問題に対処するFew-Shot(FSS)のための新しいフレームワークであるSym-Netを提案する。
我々は、クエリとプロトタイプの両方を対称的に学習し、学習プロセスが他方よりも1つのセット(サポートまたはクエリ)を好まないようにします。
実験の結果,提案したSym-Netは最先端モデルよりも優れていた。
- 参考スコア(独自算出の注目度): 33.33249452130038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Sym-Net, a novel framework for Few-Shot Segmentation (FSS) that addresses the critical issue of intra-class variation by jointly learning both query and support prototypes in a symmetrical manner. Unlike previous methods that generate query prototypes solely by matching query features to support prototypes, which is a form of bias learning towards the few-shot support samples, Sym-Net leverages a balanced symmetrical learning approach for both query and support prototypes, ensuring that the learning process does not favor one set (support or query) over the other. One of main modules of Sym-Net is the visual-text alignment-based prototype aggregation module, which is not just query-guided prototype refinement, it is a jointly learning from both support and query samples, which makes the model beneficial for handling intra-class discrepancies and allows it to generalize better to new, unseen classes. Specifically, a parameter-free prior mask generation module is designed to accurately localize both local and global regions of the query object by using sliding windows of different sizes and a self-activation kernel to suppress incorrect background matches. Additionally, to address the information loss caused by spatial pooling during prototype learning, a top-down hyper-correlation module is integrated to capture multi-scale spatial relationships between support and query images. This approach is further jointly optimized by implementing a co-optimized hard triplet mining strategy. Experimental results show that the proposed Sym-Net outperforms state-of-the-art models, which demonstrates that jointly learning support-query prototypes in a symmetrical manner for FSS offers a promising direction to enhance segmentation performance with limited annotated data.
- Abstract(参考訳): 本研究では,Few-Shot Segmentation (FSS) の新たなフレームワークであるSym-Netを提案する。
Sym-Netは、クエリとサポートプロトタイプの両方に対して、バランスのとれた対称的な学習アプローチを活用し、学習プロセスが他方よりも1つのセット(サポートまたはクエリ)を好まないようにしている。
Sym-Netの主なモジュールの1つは、ビジュアルテキストアライメントに基づくプロトタイプアグリゲーションモジュールである。これは、クエリ誘導されたプロトタイプの改良であるだけでなく、サポートとクエリサンプルの両方から共同で学習することで、クラス内の不一致を扱うのに有益なモデルとなり、新しい、目に見えないクラスにより良い一般化を可能にする。
具体的には、パラメータフリーの先行マスク生成モジュールは、異なるサイズのスライディングウィンドウと自己アクティベーションカーネルを用いてクエリオブジェクトのローカル領域とグローバル領域の両方を正確にローカライズし、不正なバックグラウンドマッチングを抑えるように設計されている。
さらに,プロトタイプ学習における空間プーリングによる情報損失に対処するため,トップダウンのハイパー相関モジュールを統合して,サポート画像とクエリ画像のマルチスケール空間関係をキャプチャする。
このアプローチは、共同最適化された3重項採掘戦略を実装することで、さらに協調的に最適化される。
実験の結果,提案したSym-Netは最先端のモデルよりも優れており,FSSに対して協調学習によるサポートクエリのプロトタイプは,限られた注釈付きデータによるセグメンテーション性能の向上に有望な方向を提供することを示した。
関連論文リスト
- Adaptive Parametric Prototype Learning for Cross-Domain Few-Shot
Classification [23.82751179819225]
本稿では,メタラーニング・コンベンションの下で新しい適応パラメトリックプロトタイプ学習法(APPL)を開発した。
APPLは多くの最先端のクロスドメイン・ショット・ラーニング手法よりも優れた性能が得られる。
論文 参考訳(メタデータ) (2023-09-04T03:58:50Z) - Dual Adaptive Representation Alignment for Cross-domain Few-shot
Learning [58.837146720228226]
ベース知識から学習することで、限られたサポートサンプルを持つ新規なクエリを認識することを目的としている。
この設定の最近の進歩は、ベース知識と新しいクエリサンプルが同じドメインに分散されていることを前提としている。
本稿では,ターゲットドメインで利用可能なサンプルが極めて少ないドメイン間数ショット学習の問題に対処することを提案する。
論文 参考訳(メタデータ) (2023-06-18T09:52:16Z) - A Prototypical Semantic Decoupling Method via Joint Contrastive Learning
for Few-Shot Name Entity Recognition [24.916377682689955]
名前付きエンティティ認識(NER)は、わずかにラベル付きインスタンスに基づいて名前付きエンティティを識別することを目的としている。
連立コントラスト学習(PSDC)を用いた数発NERのためのプロトタイプセマンティックデカップリング手法を提案する。
2つの数ショットのNERベンチマークによる実験結果から、PSDCは全体の性能において従来のSOTA法よりも一貫して優れていたことが示されている。
論文 参考訳(メタデータ) (2023-02-27T09:20:00Z) - Self-Support Few-Shot Semantic Segmentation [72.43667576285445]
本稿では,クエリ機能にマッチするクエリのプロトタイプを利用する,新しいセルフサポートマッチング戦略を提案する。
また,適応型自己サポート型バックグラウンドプロトタイプ生成モジュールと自己サポート型プロトタイプ生成モジュールを提案し,自己サポート型マッチング手順をより容易にする。
我々の自己サポートネットワークは、プロトタイプの品質を大幅に向上させ、より強力なバックボーンとサポートの改善を享受し、複数のデータセット上でSOTAを達成する。
論文 参考訳(メタデータ) (2022-07-23T16:28:07Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - APANet: Adaptive Prototypes Alignment Network for Few-Shot Semantic
Segmentation [56.387647750094466]
Few-shotのセマンティックセマンティックセマンティクスは、指定されたクエリイメージに、ラベル付きサポートイメージのみで、新規クラスのオブジェクトをセグメントすることを目的としている。
ほとんどの高度なソリューションは、各クエリ機能を学習したクラス固有のプロトタイプにマッチさせることでセグメンテーションを実行するメトリクス学習フレームワークを利用している。
本稿では,クラス固有およびクラス非依存のプロトタイプを導入することで,適応型プロトタイプ表現を提案する。
論文 参考訳(メタデータ) (2021-11-24T04:38:37Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。