論文の概要: A Self-Distillation Embedded Supervised Affinity Attention Model for
Few-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2108.06600v3
- Date: Mon, 20 Mar 2023 14:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 07:35:16.134215
- Title: A Self-Distillation Embedded Supervised Affinity Attention Model for
Few-Shot Segmentation
- Title(参考訳): Few-Shotセグメンテーションのための自己蒸留埋設アフィニティ注意モデル
- Authors: Qi Zhao, Binghao Liu, Shuchang Lyu and Huojin Chen
- Abstract要約: そこで本研究では,少数ショットセグメンテーションタスクの性能向上のために,自己拡張型教師付きアフィニティアフィニティアテンションモデルを提案する。
我々のモデルは既存の手法と比較して性能を著しく改善する。
COCO-20iデータセットでは、新しい最先端結果が得られる。
- 参考スコア(独自算出の注目度): 18.417460995287257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot segmentation focuses on the generalization of models to segment
unseen object with limited annotated samples. However, existing approaches
still face two main challenges. First, huge feature distinction between support
and query images causes knowledge transferring barrier, which harms the
segmentation performance. Second, limited support prototypes cannot adequately
represent features of support objects, hard to guide high-quality query
segmentation. To deal with the above two issues, we propose self-distillation
embedded supervised affinity attention model to improve the performance of
few-shot segmentation task. Specifically, the self-distillation guided
prototype module uses self-distillation to align the features of support and
query. The supervised affinity attention module generates high-quality query
attention map to provide sufficient object information. Extensive experiments
prove that our model significantly improves the performance compared to
existing methods. Comprehensive ablation experiments and visualization studies
also show the significant effect of our method on few-shot segmentation task.
On COCO-20i dataset, we achieve new state-of-the-art results. Training code and
pretrained models are available at https://github.com/cv516Buaa/SD-AANet.
- Abstract(参考訳): 短いショットのセグメンテーションは、限られた注釈付きサンプルで見えないオブジェクトをセグメンテーションするためのモデルの一般化に焦点を当てている。
しかし、既存のアプローチは依然として2つの大きな課題に直面している。
第一に、サポートとクエリイメージの巨大な特徴区別は、知識伝達障壁を引き起こし、セグメンテーション性能を損なう。
第二に、サポートのプロトタイプはサポートオブジェクトの特徴を適切に表現することはできない。
上記の2つの問題に対処するため,少数ショットセグメンテーションタスクの性能向上のために,自己拡張型教師付き親和性アテンションモデルを提案する。
特に、自己蒸留誘導プロトタイプモジュールは、自己蒸留を使用して、サポートとクエリの機能を調整する。
教師付きアフィニティアテンションモジュールは、十分なオブジェクト情報を提供するために高品質のクエリアテンションマップを生成する。
広範な実験により,既存の手法に比べて性能が大幅に向上することを確認した。
また, 包括的アブレーション実験と可視化実験により, 本手法がマイナショットセグメンテーションタスクに有意な効果を示した。
COCO-20iデータセットでは、新しい最先端結果が得られる。
トレーニングコードと事前トレーニングされたモデルはhttps://github.com/cv516buaa/sd-aanetで入手できる。
関連論文リスト
- Weakly-Supervised Cross-Domain Segmentation of Electron Microscopy with Sparse Point Annotation [1.124958340749622]
カウント,検出,セグメンテーションタスク間の相関を利用したマルチタスク学習フレームワークを提案する。
ラベル拡張のためのクロスポジションカット・アンド・ペーストを開発し,エントロピーに基づく擬似ラベル選択を行う。
提案手法は, UDA法を著しく上回り, 教師付き手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2024-03-31T12:22:23Z) - Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
潜在拡散モデル(LDM)は、文脈内セグメンテーションに有効な最小限のモデルである。
画像とビデオの両方のデータセットを含む、新しい、公正なコンテキスト内セグメンテーションベンチマークを構築します。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - Boosting Few-Shot Segmentation via Instance-Aware Data Augmentation and
Local Consensus Guided Cross Attention [7.939095881813804]
少ないショットセグメンテーションは、注釈付き画像のみを提供する新しいタスクに迅速に適応できるセグメンテーションモデルをトレーニングすることを目的としている。
本稿では,対象オブジェクトの相対的サイズに基づいて,サポートイメージを拡大するIDA戦略を提案する。
提案したIDAは,サポートセットの多様性を効果的に向上し,サポートイメージとクエリイメージ間の分散一貫性を促進する。
論文 参考訳(メタデータ) (2024-01-18T10:29:10Z) - Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Dynamic Relevance Learning for Few-Shot Object Detection [6.550840743803705]
動的グラフ畳み込みネットワーク(GCN)を構築するために,すべてのサポート画像とクエリ画像上の関心領域(RoI)の関係を利用した動的関連学習モデルを提案する。
提案モデルでは,より一般化された特徴の学習の有効性を示す総合的な性能が得られた。
論文 参考訳(メタデータ) (2021-08-04T18:29:42Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Objectness-Aware Few-Shot Semantic Segmentation [31.13009111054977]
モデル全体のキャパシティを向上し、パフォーマンスを向上させる方法を示す。
我々は、クラス非依存であり、過度に適合しがちな客観性を導入する。
注釈のないカテゴリの例が1つだけあると、実験により、mIoUに関して、我々の手法が最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-04-06T19:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。