論文の概要: A Self-Distillation Embedded Supervised Affinity Attention Model for
Few-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2108.06600v1
- Date: Sat, 14 Aug 2021 18:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 15:12:58.868983
- Title: A Self-Distillation Embedded Supervised Affinity Attention Model for
Few-Shot Segmentation
- Title(参考訳): Few-Shotセグメンテーションのための自己蒸留埋設アフィニティ注意モデル
- Authors: Qi Zhao, Binghao Liu, Shuchang Lyu, Xu Wang and Yifan Yang
- Abstract要約: ショットのセマンティックセグメンテーションは、わずかな注釈付きサンプルでピクセル単位でオブジェクトカテゴリを予測するのに難しいタスクである。
そこで本研究では,SD-AANetを内蔵した自己蒸留型アフィニティアフィニティ・アフィニティ・アフィニティ・アフィニティ・アフィニティ・アテンション・モデル(SD-AANet)を提案する。
提案するSD-AANetは,ベンチマークデータセットから最先端の結果を得る。
- 参考スコア(独自算出の注目度): 23.76079577951216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot semantic segmentation is a challenging task of predicting object
categories in pixel-wise with only few annotated samples. However, existing
approaches still face two main challenges. First, huge feature distinction
between support and query images causes knowledge transferring barrier, which
harms the segmentation performance. Second, few support samples cause
unrepresentative of support features, hardly to guide high-quality query
segmentation. To deal with the above two issues, we propose self-distillation
embedded supervised affinity attention model (SD-AANet) to improve the
performance of few-shot segmentation task. Specifically, the self-distillation
guided prototype module (SDPM) extracts intrinsic prototype by
self-distillation between support and query to capture representative features.
The supervised affinity attention module (SAAM) adopts support ground truth to
guide the production of high quality query attention map, which can learn
affinity information to focus on whole area of query target. Extensive
experiments prove that our SD-AANet significantly improves the performance
comparing with existing methods. Comprehensive ablation experiments and
visualization studies also show the significant effect of SDPM and SAAM for
few-shot segmentation task. On benchmark datasets, PASCAL-5i and COCO-20i, our
proposed SD-AANet both achieve state-of-the-art results. Our code will be
publicly available soon.
- Abstract(参考訳): 少数ショットのセマンティクスセグメンテーションは、わずかな注釈付きサンプルでピクセル単位でオブジェクトのカテゴリを予測する難しいタスクである。
しかし、既存のアプローチは依然として2つの大きな課題に直面している。
第一に、サポートとクエリイメージの巨大な特徴区別は、知識伝達障壁を引き起こし、セグメンテーション性能を損なう。
第2に,サポート機能を説明できないようなサポートサンプルは少なく,高品質なクエリセグメンテーションを導くことがほとんどない。
上記の2つの課題に対処するため,数発のセグメンテーションタスクの性能向上のために,自己蒸留型組込み親和性アテンションモデル(SD-AANet)を提案する。
具体的には、自己蒸留ガイド型プロトタイプモジュール(SDPM)は、サポートとクエリの自己蒸留により固有のプロトタイプを抽出し、代表的特徴を捉える。
教師付きアフィニティアテンションモジュール(SAAM)は、高品質なクエリアテンションマップの作成をガイドするために、サポート基盤真理を採用し、アフィニティ情報を学習してクエリターゲットの全領域にフォーカスすることができる。
SD-AANetは既存の手法と比較して性能を著しく向上させる。
包括的アブレーション実験と可視化実験も,数発のセグメンテーション作業においてSDPMとSAAMの有意な効果を示した。
ベンチマークデータセットであるPASCAL-5iとCOCO-20iにおいて,提案したSD-AANetはいずれも最先端の結果を得た。
私たちのコードはまもなく公開されます。
関連論文リスト
- Weakly-Supervised Cross-Domain Segmentation of Electron Microscopy with Sparse Point Annotation [1.124958340749622]
カウント,検出,セグメンテーションタスク間の相関を利用したマルチタスク学習フレームワークを提案する。
ラベル拡張のためのクロスポジションカット・アンド・ペーストを開発し,エントロピーに基づく擬似ラベル選択を行う。
提案手法は, UDA法を著しく上回り, 教師付き手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2024-03-31T12:22:23Z) - Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
潜在拡散モデル(LDM)は、文脈内セグメンテーションに有効な最小限のモデルである。
画像とビデオの両方のデータセットを含む、新しい、公正なコンテキスト内セグメンテーションベンチマークを構築します。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - Boosting Few-Shot Segmentation via Instance-Aware Data Augmentation and
Local Consensus Guided Cross Attention [7.939095881813804]
少ないショットセグメンテーションは、注釈付き画像のみを提供する新しいタスクに迅速に適応できるセグメンテーションモデルをトレーニングすることを目的としている。
本稿では,対象オブジェクトの相対的サイズに基づいて,サポートイメージを拡大するIDA戦略を提案する。
提案したIDAは,サポートセットの多様性を効果的に向上し,サポートイメージとクエリイメージ間の分散一貫性を促進する。
論文 参考訳(メタデータ) (2024-01-18T10:29:10Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Objectness-Aware Few-Shot Semantic Segmentation [31.13009111054977]
モデル全体のキャパシティを向上し、パフォーマンスを向上させる方法を示す。
我々は、クラス非依存であり、過度に適合しがちな客観性を導入する。
注釈のないカテゴリの例が1つだけあると、実験により、mIoUに関して、我々の手法が最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-04-06T19:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。