論文の概要: Cos R-CNN for Online Few-shot Object Detection
- arxiv url: http://arxiv.org/abs/2307.13485v1
- Date: Tue, 25 Jul 2023 13:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 17:07:50.361294
- Title: Cos R-CNN for Online Few-shot Object Detection
- Title(参考訳): cos r-cnnによるオンライン・マイズショット物体検出
- Authors: Gratianus Wesley Putra Data, Henry Howard-Jenkins, David Murray,
Victor Prisacariu
- Abstract要約: Cos R-CNNは、オンラインの複数ショットオブジェクト検出のためのシンプルな例ベースのR-CNN定式化である。
微調整なしで、少数の例で、画像中の新しいオブジェクトカテゴリをローカライズし、分類することができる。
この単純な定式化は、最近提案された5-way ImageNet few-shot detectionベンチマークで最高の結果を得る。
- 参考スコア(独自算出の注目度): 11.884085868686501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Cos R-CNN, a simple exemplar-based R-CNN formulation that is
designed for online few-shot object detection. That is, it is able to localise
and classify novel object categories in images with few examples without
fine-tuning. Cos R-CNN frames detection as a learning-to-compare task: unseen
classes are represented as exemplar images, and objects are detected based on
their similarity to these exemplars. The cosine-based classification head
allows for dynamic adaptation of classification parameters to the exemplar
embedding, and encourages the clustering of similar classes in embedding space
without the need for manual tuning of distance-metric hyperparameters. This
simple formulation achieves best results on the recently proposed 5-way
ImageNet few-shot detection benchmark, beating the online 1/5/10-shot scenarios
by more than 8/3/1%, as well as performing up to 20% better in online 20-way
few-shot VOC across all shots on novel classes.
- Abstract(参考訳): 本稿では,オンライン数ショットオブジェクト検出のための簡易なR-CNN定式化であるCos R-CNNを提案する。
すなわち、微調整することなく、少ない例で画像内の新しいオブジェクトカテゴリをローカライズし、分類することができる。
cos r-cnn フレーム検出を学習と競争のタスクとして: 未知のクラスを例示画像として表現し、それらの例示と類似性に基づいてオブジェクトを検出する。
コサインベースの分類ヘッドは、例えば埋め込みへの分類パラメータの動的適応を可能にし、距離測定ハイパーパラメータの手動チューニングを必要とせず、埋め込み空間における類似クラスのクラスタリングを促進する。
オンラインの1/5/10ショットシナリオを8/3/1%以上上回り、新しいクラスのすべてのショットに対して、オンラインの20ウェイの少数ショットvocよりも20%高いパフォーマンスを実現している。
関連論文リスト
- Joint Neural Networks for One-shot Object Recognition and Detection [5.389851588398047]
本稿では,一発物体の認識と検出に難渋する課題に対処する,新しい結合ニューラルネットワーク手法を提案する。
Siameseのニューラルネットワークと最先端のマルチボックス検出アプローチにインスパイアされたジョイントニューラルネットワークは、トレーニングプロセス中に見つからないカテゴリのオブジェクト認識と検出を行うことができる。
提案手法は,MiniImageNetデータセット上での1ショットオブジェクト認識における61.41%の精度と,データセット上でトレーニングしてテストした場合の1ショットオブジェクト検出における47.1%のmAPを実現する。
論文 参考訳(メタデータ) (2024-08-01T16:48:03Z) - Few-Shot Anomaly Detection via Category-Agnostic Registration Learning [65.64252994254268]
既存のほとんどの異常検出方法は、各カテゴリに専用のモデルを必要とする。
この記事では、新しい数ショットAD(FSAD)フレームワークを提案する。
これは新しいカテゴリーのモデル微調整を必要としない最初のFSAD法である。
論文 参考訳(メタデータ) (2024-06-13T05:01:13Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Scale Attention for Learning Deep Face Representation: A Study Against
Visual Scale Variation [69.45176408639483]
我々はスケール空間理論に頼って凸層を再構築する。
我々はSCale AttentioN Conv Neural Network(textbfSCAN-CNN)という新しいスタイルを構築した。
単発方式として、推論はマルチショット融合よりも効率的である。
論文 参考訳(メタデータ) (2022-09-19T06:35:04Z) - Query Adaptive Few-Shot Object Detection with Heterogeneous Graph
Convolutional Networks [33.446875089255876]
Few-shot Object Detection (FSOD) は、いくつかの例を使って見えないオブジェクトを検出することを目的としている。
異種グラフ畳み込みネットワークを用いた新しいFSODモデルを提案する。
論文 参考訳(メタデータ) (2021-12-17T22:08:15Z) - Experience feedback using Representation Learning for Few-Shot Object
Detection on Aerial Images [2.8560476609689185]
大規模なリモートセンシング画像データセットであるDOTAを用いて,本手法の性能評価を行った。
特に、数発のオブジェクト検出タスクの固有の弱点を強調します。
論文 参考訳(メタデータ) (2021-09-27T13:04:53Z) - Meta Faster R-CNN: Towards Accurate Few-Shot Object Detection with
Attentive Feature Alignment [33.446875089255876]
Few-shot Object Detection (FSOD) は、少数の例でオブジェクトを検出することを目的としている。
本稿では,データ不足ベースクラスから学習したメタ知識を新しいクラスに転送することで,メタラーニングに基づくマイショットオブジェクト検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T19:01:27Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - One-Shot Image Classification by Learning to Restore Prototypes [11.448423413463916]
ワンショット画像分類は、カテゴリ毎に1つの画像しか持たないデータセット上で、イメージ分類器を訓練することを目的としている。
ワンショット学習では、既存のメトリック学習アプローチは、単一のトレーニングイメージがクラスを代表するものではない可能性があるため、パフォーマンスが低下する。
本稿では,RestoreNet で表される単純な回帰モデルを提案する。画像特徴のクラス変換を学習し,特徴空間のクラス中心に画像を移動させる。
論文 参考訳(メタデータ) (2020-05-04T02:11:30Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z) - DeepEMD: Differentiable Earth Mover's Distance for Few-Shot Learning [122.51237307910878]
我々は,画像領域間の最適なマッチングの新しい視点から,少数ショット画像分類法を開発した。
我々は、高密度画像表現間の構造距離を計算するために、Earth Mover's Distance (EMD) を用いている。
定式化において重要な要素の重みを生成するために,我々は相互参照機構を設計する。
論文 参考訳(メタデータ) (2020-03-15T08:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。