論文の概要: BriNet: Towards Bridging the Intra-class and Inter-class Gaps in
One-Shot Segmentation
- arxiv url: http://arxiv.org/abs/2008.06226v1
- Date: Fri, 14 Aug 2020 07:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 17:30:44.102524
- Title: BriNet: Towards Bridging the Intra-class and Inter-class Gaps in
One-Shot Segmentation
- Title(参考訳): BriNet: ワンショットセグメンテーションにおけるクラス内ギャップとクラス間ギャップのブリッジを目指して
- Authors: Xianghui Yang, Bairun Wang, Kaige Chen, Xinchi Zhou, Shuai Yi, Wanli
Ouyang, Luping Zhou
- Abstract要約: ほとんどショットのセグメンテーションは、限られたトレーニングサンプルで見えないオブジェクトインスタンスをセグメンテーションするためのモデルの一般化に焦点を当てている。
本稿では,クエリの抽出した特徴とサポートイメージのギャップを埋めるフレームワーク BriNet を提案する。
本フレームワークの有効性は,他の競合手法よりも優れる実験結果によって実証された。
- 参考スコア(独自算出の注目度): 84.2925550033094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot segmentation focuses on the generalization of models to segment
unseen object instances with limited training samples. Although tremendous
improvements have been achieved, existing methods are still constrained by two
factors. (1) The information interaction between query and support images is
not adequate, leaving intra-class gap. (2) The object categories at the
training and inference stages have no overlap, leaving the inter-class gap.
Thus, we propose a framework, BriNet, to bridge these gaps. First, more
information interactions are encouraged between the extracted features of the
query and support images, i.e., using an Information Exchange Module to
emphasize the common objects. Furthermore, to precisely localize the query
objects, we design a multi-path fine-grained strategy which is able to make
better use of the support feature representations. Second, a new online
refinement strategy is proposed to help the trained model adapt to unseen
classes, achieved by switching the roles of the query and the support images at
the inference stage. The effectiveness of our framework is demonstrated by
experimental results, which outperforms other competitive methods and leads to
a new state-of-the-art on both PASCAL VOC and MSCOCO dataset.
- Abstract(参考訳): 少数ショットのセグメンテーションは、限られたトレーニングサンプルで見えないオブジェクトインスタンスをセグメンテーションするためのモデルの一般化に焦点を当てている。
大幅な改善が達成されているが、既存の方法には2つの要因がある。
1)クエリとサポート画像間の情報相互作用は不十分であり,クラス内ギャップが残る。
(2) トレーニングと推論の段階でのオブジェクトのカテゴリは重複せず、クラス間ギャップが残る。
そこで我々は,これらのギャップを埋めるためのフレームワーク BriNet を提案する。
まず、クエリの抽出した特徴とサポートイメージ、すなわち、共通オブジェクトを強調するためにインフォメーション・エクスチェンジ・モジュールを使用するイメージの間により多くの情報相互作用が奨励される。
さらに、クエリオブジェクトを正確にローカライズするために、サポート機能表現をよりよく活用できるマルチパスきめ細かな戦略を設計する。
第2に,クエリの役割とサポートイメージを推論段階で切り換えることで,トレーニングしたモデルを未取得のクラスに適応させるための,新たなオンラインリファインメント戦略を提案する。
本フレームワークの有効性は,他の競合手法よりも優れ,PASCAL VOCおよびMSCOCOデータセット上での新たな最先端化につながる実験結果によって実証された。
関連論文リスト
- Visual Prompt Selection for In-Context Learning Segmentation [77.15684360470152]
本稿では,サンプル選択戦略の再考と改善に焦点をあてる。
まず、ICLに基づくセグメンテーションモデルが異なる文脈に敏感であることを示す。
さらに、経験的証拠は、文脈的プロンプトの多様性がセグメンテーションを導く上で重要な役割を担っていることを示している。
論文 参考訳(メタデータ) (2024-07-14T15:02:54Z) - IFSENet : Harnessing Sparse Iterations for Interactive Few-shot Segmentation Excellence [2.822194296769473]
新しいクラスのセグメンテーションを学ぶために必要な画像の数を減らします。
インタラクティブなセグメンテーション技術は、一度に1つのオブジェクトのセグメンテーションを漸進的に改善することのみに焦点を当てます。
2つの概念を組み合わせることで、新しいクラスのセグメンテーションモデルをトレーニングするのに要する労力を大幅に削減する。
論文 参考訳(メタデータ) (2024-03-22T10:15:53Z) - Boosting Few-Shot Segmentation via Instance-Aware Data Augmentation and
Local Consensus Guided Cross Attention [7.939095881813804]
少ないショットセグメンテーションは、注釈付き画像のみを提供する新しいタスクに迅速に適応できるセグメンテーションモデルをトレーニングすることを目的としている。
本稿では,対象オブジェクトの相対的サイズに基づいて,サポートイメージを拡大するIDA戦略を提案する。
提案したIDAは,サポートセットの多様性を効果的に向上し,サポートイメージとクエリイメージ間の分散一貫性を促進する。
論文 参考訳(メタデータ) (2024-01-18T10:29:10Z) - Elimination of Non-Novel Segments at Multi-Scale for Few-Shot
Segmentation [0.0]
ほとんどショットのセグメンテーションは、トレーニング中に目に見えないクラスからクエリイメージをセグメンテーションする一般化モデルを考案することを目的としている。
PASCAL-5iとCOCO-20iの両方のデータセット上で,2つの重要な問題に同時に対処し,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-04T07:52:54Z) - A Joint Framework Towards Class-aware and Class-agnostic Alignment for
Few-shot Segmentation [11.47479526463185]
Few-shotのセグメンテーションは、いくつかの注釈付きサポートイメージが与えられた未確認クラスのオブジェクトをセグメントすることを目的としている。
既存のほとんどのメソッドは、クエリ機能を独立したサポートプロトタイプで縫い付け、混合機能をデコーダに供給することでクエリイメージを分割する。
セグメンテーションを容易にするために,より価値の高いクラス認識とクラス非依存アライメントガイダンスを組み合わせた共同フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-02T17:33:25Z) - Meta-DETR: Image-Level Few-Shot Detection with Inter-Class Correlation
Exploitation [100.87407396364137]
画像レベルの最小ショット検出装置であるMeta-DETRを設計し、(i)クラス間相関メタ学習戦略を新たに導入する。
複数の数ショットのオブジェクト検出ベンチマーク実験により、提案したMeta-DETRは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-07-30T13:46:07Z) - Temporal Saliency Query Network for Efficient Video Recognition [82.52760040577864]
ビデオ認識は、インターネットやモバイルデバイス上でのマルチメディアデータの爆発的な成長に関するホットスポット研究のトピックである。
既存の方法の多くは、クラス固有のサリエンシスコアを意識せずに、サリエントフレームを選択する。
そこで我々は,Saliency Query (TSQ) 機構を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:23:34Z) - OS-MSL: One Stage Multimodal Sequential Link Framework for Scene
Segmentation and Classification [11.707994658605546]
本稿では,2つの意味論を識別し,活用するための汎用1段マルチモーダルシーケンスリンクフレームワーク(OS-MSL)を提案する。
我々はDiffCorrNetと呼ばれる特定のモジュールを調整し、ショット間の差分や相関関係の情報を明示的に抽出する。
論文 参考訳(メタデータ) (2022-07-04T07:59:34Z) - Semantic Representation and Dependency Learning for Multi-Label Image
Recognition [76.52120002993728]
本稿では,各カテゴリのカテゴリ固有のセマンティック表現を学習するための,新しい,効果的なセマンティック表現と依存性学習(SRDL)フレームワークを提案する。
具体的には,カテゴリー別注意領域(CAR)モジュールを設計し,チャネル/空間的注意行列を生成してモデルを導出する。
また、カテゴリ間のセマンティック依存を暗黙的に学習するオブジェクト消去(OE)モジュールを設計し、セマンティック認識領域を消去する。
論文 参考訳(メタデータ) (2022-04-08T00:55:15Z) - Adversarial Bipartite Graph Learning for Video Domain Adaptation [50.68420708387015]
ドメイン適応技術は,異なる領域間のモデルを適応させることに重点を置いているが,ビデオ認識領域ではめったに研究されていない。
近年,映像のソースと対象映像の表現を統一するために,対角学習を活用する視覚領域適応はビデオにはあまり効果がない。
本稿では,ソースとターゲットの相互作用を直接モデル化するAdversarial Bipartite Graph (ABG)学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-31T03:48:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。