論文の概要: Breaking Immutable: Information-Coupled Prototype Elaboration for
Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2211.14782v1
- Date: Sun, 27 Nov 2022 10:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 18:21:06.054867
- Title: Breaking Immutable: Information-Coupled Prototype Elaboration for
Few-Shot Object Detection
- Title(参考訳): Immutable:Few-Shotオブジェクト検出のための情報結合型プロトタイプ開発
- Authors: Xiaonan Lu, Wenhui Diao, Yongqiang Mao, Junxi Li, Peijin Wang, Xian
Sun, Kun Fu
- Abstract要約: 本稿では,情報結合型プロトタイプ開発(ICPE)手法を提案する。
提案手法は,ほぼすべての設定で最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 15.079980293820137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot object detection, expecting detectors to detect novel classes with a
few instances, has made conspicuous progress. However, the prototypes extracted
by existing meta-learning based methods still suffer from insufficient
representative information and lack awareness of query images, which cannot be
adaptively tailored to different query images. Firstly, only the support images
are involved for extracting prototypes, resulting in scarce perceptual
information of query images. Secondly, all pixels of all support images are
treated equally when aggregating features into prototype vectors, thus the
salient objects are overwhelmed by the cluttered background. In this paper, we
propose an Information-Coupled Prototype Elaboration (ICPE) method to generate
specific and representative prototypes for each query image. Concretely, a
conditional information coupling module is introduced to couple information
from the query branch to the support branch, strengthening the query-perceptual
information in support features. Besides, we design a prototype dynamic
aggregation module that dynamically adjusts intra-image and inter-image
aggregation weights to highlight the salient information useful for detecting
query images. Experimental results on both Pascal VOC and MS COCO demonstrate
that our method achieves state-of-the-art performance in almost all settings.
- Abstract(参考訳): いくつかの例で新しいクラスを検知する検知器を期待するオブジェクト検出は、目立った進歩を遂げた。
しかし,既存のメタラーニング手法によって抽出されたプロトタイプは,表現情報の不足やクエリイメージの認識の欠如に悩まされており,異なるクエリイメージに適応的に適合することができない。
第一に、プロトタイプの抽出にはサポート画像のみが関与し、クエリ画像の知覚情報が不足する。
第二に、全ての支持画像の画素は、プロトタイプベクトルに特徴を集約する際に等しく扱われるので、散らかった背景に散らばる。
本稿では,各問合せ画像に対して具体的および代表的プロトタイプを生成するための情報結合プロトタイプ作成(icpe)手法を提案する。
具体的には、クエリブランチからサポートブランチへの情報を結合するために条件情報結合モジュールを導入し、サポート機能におけるクエリ知覚情報を強化する。
また,画像内および画像間集約重みを動的に調整し,問合せ画像の検出に有用な情報を強調する動的集約モジュールのプロトタイプを設計する。
また,Pascal VOCとMS COCOの両実験結果から,ほぼすべての設定で最先端の性能が得られた。
関連論文リスト
- Correlation Weighted Prototype-based Self-Supervised One-Shot Segmentation of Medical Images [12.365801596593936]
医用画像セグメンテーションは、十分な注釈付きデータが入手できない領域の1つである。
スーパーピクセルから生成された擬似ラベルを用いた,プロトタイプベースのワンショット学習フレームワークを提案する。
提案手法は,最先端の手法と同等に機能することを示す。
論文 参考訳(メタデータ) (2024-08-12T15:38:51Z) - Fine-Grained Prototypes Distillation for Few-Shot Object Detection [8.795211323408513]
Few-shot Object Detection (FSOD) は、新しい物体検出のためのジェネリック検出器を、少数の訓練例で拡張することを目的としている。
一般に、メタラーニングに基づく手法は、新しいサンプルをクラスプロトタイプにエンコードするために追加のサポートブランチを使用する。
より堅牢な新しいオブジェクト検出のために、特徴ある局所的コンテキストをキャプチャするためには、新しい方法が必要である。
論文 参考訳(メタデータ) (2024-01-15T12:12:48Z) - With a Little Help from your own Past: Prototypical Memory Networks for
Image Captioning [47.96387857237473]
我々は、他のトレーニングサンプルを処理しながら得られたアクティベーションに注意を向けるネットワークを考案した。
私たちのメモリは、プロトタイプベクトルの定義を通じて過去のキーと値の分布をモデル化します。
本研究では,エンコーダ・デコーダ変換器の性能を3.7 CIDErポイント向上できることを示す。
論文 参考訳(メタデータ) (2023-08-23T18:53:00Z) - Holistic Prototype Attention Network for Few-Shot VOS [74.25124421163542]
FSVOS(Few-shot Video Object segmentation)は、少数のサポートイメージに頼って、目に見えないクラスの動的オブジェクトをセグメントすることを目的としている。
本稿では,FSVOS を前進させるための総合プロトタイプアテンションネットワーク (HPAN) を提案する。
論文 参考訳(メタデータ) (2023-07-16T03:48:57Z) - MIANet: Aggregating Unbiased Instance and General Information for
Few-Shot Semantic Segmentation [6.053853367809978]
既存の少数ショットセグメンテーション手法はメタラーニング戦略に基づいて,サポートセットからインスタンス知識を抽出する。
本稿では,多情報集約ネットワーク(MIANet)を提案する。
PASCAL-5iとCOCO-20iの実験により、MIANetは優れた性能を示し、新しい最先端技術を確立した。
論文 参考訳(メタデータ) (2023-05-23T09:36:27Z) - Prototype as Query for Few Shot Semantic Segmentation [7.380266341356485]
Few-shot Semantic (FSS) はクエリイメージに未表示のクラスを分割するために提案された。
本稿では,ProtoFormerと呼ばれるTransformerを基盤として,クエリ機能の空間的詳細をフルにキャプチャするフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-27T08:41:50Z) - Intermediate Prototype Mining Transformer for Few-Shot Semantic
Segmentation [119.51445225693382]
Few-shotのセマンティックセマンティックセマンティクスは、いくつかのアノテーション付きサポートイメージの条件下で、ターゲットオブジェクトをクエリにセグメントすることを目的としている。
そこで本研究では,提案クエリから決定論的カテゴリ情報と適応的カテゴリ知識の両方をマイニングする中間プロトタイプを提案する。
各IPMT層では,サポート機能とクエリ機能の両方のオブジェクト情報をプロトタイプに伝達し,それを使ってクエリ機能マップを活性化する。
論文 参考訳(メタデータ) (2022-10-13T06:45:07Z) - Self-supervised Image-specific Prototype Exploration for Weakly
Supervised Semantic Segmentation [72.33139350241044]
画像レベルのラベルをベースとしたWSSS(Weakly Supervised Semantic COCO)は,アノテーションコストの低さから注目されている。
本稿では,画像特異的なプロトタイプ探索 (IPE) と汎用一貫性 (GSC) の喪失からなる画像固有プロトタイプ探索 (SIPE) を提案する。
SIPEは,画像レベルラベルのみを用いて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-06T09:01:03Z) - Semantically Meaningful Class Prototype Learning for One-Shot Image
Semantic Segmentation [58.96902899546075]
ワンショットセマンティックイメージセグメンテーションは、1つの注釈付きイメージで新しいクラスのオブジェクト領域を分割することを目的としている。
最近の研究では、テスト時に予想される状況を模倣するために、エピソディクストレーニング戦略を採用している。
エピソードトレーニングにおいて,マルチクラスラベル情報を活用することを提案する。
ネットワークが各カテゴリに対してより意味のある機能を生成するように促すだろう。
論文 参考訳(メタデータ) (2021-02-22T12:07:35Z) - Prototype Mixture Models for Few-shot Semantic Segmentation [50.866870384596446]
サポートやクエリ画像内のオブジェクトが外観やポーズで大きく異なる可能性があるため、ショットのセグメンテーションは難しい。
プロトタイプベースセマンティック表現を強制するために,多種多様な画像領域と複数のプロトタイプとの相関関係を持つプロトタイプ混合モデル(PMMs)を提案する。
PMMはMS-COCOの5ショットセグメンテーション性能を最大5.82%改善し、モデルサイズと推論速度の適度なコストに留まった。
論文 参考訳(メタデータ) (2020-08-10T04:33:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。