論文の概要: CobNet: Cross Attention on Object and Background for Few-Shot
Segmentation
- arxiv url: http://arxiv.org/abs/2210.11968v1
- Date: Fri, 21 Oct 2022 13:49:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:20:16.946901
- Title: CobNet: Cross Attention on Object and Background for Few-Shot
Segmentation
- Title(参考訳): CobNet:Few-Shotセグメンテーションのためのオブジェクトとバックグラウンドのクロスアテンション
- Authors: Haoyan Guan, Spratling Michae
- Abstract要約: Few-shotのセグメンテーションは、アノテーション付きのサンプルのみを使用して、これまで見つからなかったクラスのオブジェクトを含むイメージをセグメントすることを目的としている。
背景情報は、対象と周囲を区別するのにも有用である。
本稿では,クエリ画像から抽出した背景情報を利用したCobNetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot segmentation aims to segment images containing objects from
previously unseen classes using only a few annotated samples. Most current
methods focus on using object information extracted, with the aid of human
annotations, from support images to identify the same objects in new query
images. However, background information can also be useful to distinguish
objects from their surroundings. Hence, some previous methods also extract
background information from the support images. In this paper, we argue that
such information is of limited utility, as the background in different images
can vary widely. To overcome this issue, we propose CobNet which utilises
information about the background that is extracted from the query images
without annotations of those images. Experiments show that our method achieves
a mean Intersection-over-Union score of 61.4% and 37.8% for 1-shot segmentation
on PASCAL-5i and COCO-20i respectively, outperforming previous methods. It is
also shown to produce state-of-the-art performances of 53.7% for
weakly-supervised few-shot segmentation, where no annotations are provided for
the support images.
- Abstract(参考訳): Few-shotのセグメンテーションは、アノテーション付きのサンプルのみを使用して、これまで見つからなかったクラスのオブジェクトを含むイメージをセグメントすることを目的としている。
現在のほとんどのメソッドは、新しいクエリイメージで同じオブジェクトを識別するためのサポートイメージから、人間のアノテーションによって抽出されたオブジェクト情報の使用に焦点を当てている。
しかし、背景情報は物体とその周囲を区別するのにも有用である。
したがって、過去の手法では、サポート画像から背景情報も抽出する。
本稿では,異なる画像の背景が多種多様であるため,そのような情報は限られた実用性を有すると論じる。
そこで本研究では,クエリ画像から抽出された背景情報を利用したcobnetを提案する。
実験の結果, PASCAL-5iとCOCO-20iの1ショットセグメンテーションでは, それぞれ61.4%, 37.8%のインターセクションオーバ・ユニオンスコアが得られた。
また、サポート画像に対するアノテーションが提供されない弱教師付き少数ショットセグメンテーションに対して、53.7%の最先端のパフォーマンスを生成することも示されている。
関連論文リスト
- Iterative Few-shot Semantic Segmentation from Image Label Text [36.53926941601841]
ほとんどショットのセマンティックセマンティックセマンティクスは、いくつかのサポートイメージのガイダンスで、目に見えないクラスオブジェクトのセマンティクスを学ぶことを目的としている。
本稿では、強力な視覚言語モデルCLIPの助けを借りて、粗いマスクを生成するための一般的なフレームワークを提案する。
本手法は,野生および珍しいクラスの画像に対して,優れた一般化能力を有する。
論文 参考訳(メタデータ) (2023-03-10T01:48:14Z) - Query Semantic Reconstruction for Background in Few-Shot Segmentation [0.0]
Few-shot segmentation (FSS) は、いくつかのアノテーション付きサンプルを使用して、目に見えないクラスをセグメントすることを目的としている。
いくつかのFSSメソッドは、サポートイメージの背景を使用して、クエリイメージの背景を特定することでこの問題に対処しようとする。
本稿では,クエリ画像自体から背景を抽出するQSRを提案する。
論文 参考訳(メタデータ) (2022-10-21T15:49:16Z) - VizWiz-FewShot: Locating Objects in Images Taken by People With Visual
Impairments [74.72656607288185]
我々は、撮影した画像の視覚的内容について真に学ぼうとしていた写真家を起源とする、数発のローカライゼーションデータセットを紹介した。
視覚障害者が撮影した4500枚以上の画像に、100のカテゴリの約10,000のセグメンテーションが含まれている。
既存の数発のオブジェクト検出やインスタンスセグメンテーションデータセットと比較して、私たちのデータセットは、オブジェクトの穴を見つける最初のものです。
論文 参考訳(メタデータ) (2022-07-24T20:44:51Z) - Few-Shot Segmentation with Global and Local Contrastive Learning [51.677179037590356]
提案するグローバルローカルコントラスト学習を用いて,ラベルのない画像からクエリ情報を学習するための先行抽出器を提案する。
クエリー画像の以前の領域マップを生成し、オブジェクトの位置を判断し、サポート機能とのクロスインタラクションを行うためのガイダンスを作成する。
ベルとホイッスルを使わずに、提案手法は、数発のセグメンテーションタスクに対して、新しい最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-08-11T15:52:22Z) - Learning Meta-class Memory for Few-Shot Semantic Segmentation [90.28474742651422]
全てのクラスで共有可能なメタ情報であるメタクラスの概念を導入する。
本稿では,メタクラスメモリをベースとした少ショットセグメンテーション手法 (MM-Net) を提案する。
提案したMM-Netは1ショット設定でCOCOデータセット上で37.5%のmIoUを達成する。
論文 参考訳(メタデータ) (2021-08-06T06:29:59Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。