論文の概要: Balancing Conservatism and Aggressiveness: Prototype-Affinity Hybrid Network for Few-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2507.19140v1
- Date: Fri, 25 Jul 2025 10:22:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-28 16:16:48.92038
- Title: Balancing Conservatism and Aggressiveness: Prototype-Affinity Hybrid Network for Few-Shot Segmentation
- Title(参考訳): 保守主義と攻撃性のバランスをとる:Few-Shotセグメンテーションのためのプロトタイプ・アフィニティハイブリッドネットワーク
- Authors: Tianyu Zou, Shengwu Xiong, Ruilin Yao, Yi Rong,
- Abstract要約: 本研究では,未知のカテゴリに属するオブジェクトを問合せ画像に分割することを目的としたFSSタスクについて検討する。
分析の結果,プロトタイプ学習手法による予測は概して保守的であるのに対し,親和性学習手法の予測はより積極的であることが明らかとなった。
本稿では,親和性学習モデル(親和性学習者)の各注意ブロックにおけるPFEモジュールと注意スコア(ASC)モジュールを提案する。
これらの2つのモジュールは、事前訓練されたプロトタイプ学習モデル(プロトタイプ予測と呼ばれる)によって生成された予測を利用して、前景情報のサポートとクエリ画像表現を強化する。
- 参考スコア(独自算出の注目度): 14.177510695317098
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the few-shot segmentation (FSS) task, which aims to segment objects belonging to unseen categories in a query image by learning a model on a small number of well-annotated support samples. Our analysis of two mainstream FSS paradigms reveals that the predictions made by prototype learning methods are usually conservative, while those of affinity learning methods tend to be more aggressive. This observation motivates us to balance the conservative and aggressive information captured by these two types of FSS frameworks so as to improve the segmentation performance. To achieve this, we propose a **P**rototype-**A**ffinity **H**ybrid **Net**work (PAHNet), which introduces a Prototype-guided Feature Enhancement (PFE) module and an Attention Score Calibration (ASC) module in each attention block of an affinity learning model (called affinity learner). These two modules utilize the predictions generated by a pre-trained prototype learning model (called prototype predictor) to enhance the foreground information in support and query image representations and suppress the mismatched foreground-background (FG-BG) relationships between them, respectively. In this way, the aggressiveness of the affinity learner can be effectively mitigated, thereby eventually increasing the segmentation accuracy of our PAHNet method. Experimental results show that PAHNet outperforms most recently proposed methods across 1-shot and 5-shot settings on both PASCAL-5$^i$ and COCO-20$^i$ datasets, suggesting its effectiveness. The code is available at: [GitHub - tianyu-zou/PAHNet: Balancing Conservatism and Aggressiveness: Prototype-Affinity Hybrid Network for Few-Shot Segmentation (ICCV'25)](https://github.com/tianyu-zou/PAHNet)
- Abstract(参考訳): 本稿では,検索画像中の未知のカテゴリに属するオブジェクトを,少数の注釈付きサポートサンプルのモデルから学習することにより分割することを目的とした,FSSタスクについて検討する。
2つの主流FSSパラダイムを解析した結果,プロトタイプ学習法では予測が保守的であるのに対して,親和性学習法では攻撃的である傾向が示唆された。
この観察は、これらの2つのタイプのFSSフレームワークが捉えた保守的で攻撃的な情報のバランスを保ち、セグメンテーション性能を改善する動機となる。
そこで本研究では,親和性学習モデル(親和性学習者)の各注目ブロックに,PFEモジュールとASCモジュールを導入した**P*****親和性**H**ybrid***Net*work(PAHNet)を提案する。
これらの2つのモジュールは、事前訓練されたプロトタイプ学習モデル(プロトタイプ予測器)によって生成された予測を利用して、サポート中の前景情報とクエリ画像表現を強化し、それらの間の不一致前景(FG-BG)の関係をそれぞれ抑制する。
これにより、親和性学習者の攻撃性を効果的に軽減し、最終的にPAHNet法のセグメンテーション精度を高めることができる。
実験結果から,PASCAL-5$^i$およびCOCO-20$^i$データセットにおいて,PAHNetは1ショットおよび5ショット設定において,最近提案した手法よりも優れており,その有効性が示唆された。
GitHub - tianyu-zou/PAHNet: Balancing Conservatism and Aggressiveness: Prototype-Affinity Hybrid Network for Few-Shot Segmentation (ICCV'25)] (https://github.com/tianyu-zou/PAHNet)
関連論文リスト
- ICAS: Detecting Training Data from Autoregressive Image Generative Models [38.1625974271413]
トレーニングデータ検出は、モデルトレーニングにおける不正なデータ使用を識別するための重要なタスクとして登場した。
我々はこの領域に会員推定を適用した最初の研究を行う。
我々の手法は、様々なデータ変換の下で強い堅牢性と一般化を示す。
論文 参考訳(メタデータ) (2025-07-07T14:50:42Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Fine-Grained Prototypes Distillation for Few-Shot Object Detection [8.795211323408513]
Few-shot Object Detection (FSOD) は、新しい物体検出のためのジェネリック検出器を、少数の訓練例で拡張することを目的としている。
一般に、メタラーニングに基づく手法は、新しいサンプルをクラスプロトタイプにエンコードするために追加のサポートブランチを使用する。
より堅牢な新しいオブジェクト検出のために、特徴ある局所的コンテキストをキャプチャするためには、新しい方法が必要である。
論文 参考訳(メタデータ) (2024-01-15T12:12:48Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Prototype Completion for Few-Shot Learning [13.63424509914303]
少数ショット学習は、いくつかの例で新しいクラスを認識することを目的としている。
事前学習に基づく手法は,特徴抽出器を事前学習し,最寄りのセントロイド型メタラーニングを通して微調整することで,この問題に効果的に対処する。
本稿では,完成度に基づくメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:44:00Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。