論文の概要: Incrementally Zero-Shot Detection by an Extreme Value Analyzer
- arxiv url: http://arxiv.org/abs/2103.12609v1
- Date: Tue, 23 Mar 2021 15:06:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-24 13:50:31.487665
- Title: Incrementally Zero-Shot Detection by an Extreme Value Analyzer
- Title(参考訳): 極値解析器によるインクリメンタルゼロショット検出
- Authors: Zheng Sixiao and Fu Yanwei and Hou Yanxi
- Abstract要約: 本稿では,実世界の物体検出におけるゼロショット学習とクラスインクリメンタル学習の両方のための新しい戦略を提案する。
本稿では,新しい極値解析器を提案し,古い見え方,新しい見え方,見えないクラスからオブジェクトを同時に検出する。
実験では, 対象物の検出におけるモデルの有効性を実証し, Pascal VOCおよびMSCOCOデータセット上での代替モデルよりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human beings not only have the ability to recognize novel unseen classes, but
also can incrementally incorporate the new classes to existing knowledge
preserved. However, zero-shot learning models assume that all seen classes
should be known beforehand, while incremental learning models cannot recognize
unseen classes. This paper introduces a novel and challenging task of
Incrementally Zero-Shot Detection (IZSD), a practical strategy for both
zero-shot learning and class-incremental learning in real-world object
detection. An innovative end-to-end model -- IZSD-EVer was proposed to tackle
this task that requires incrementally detecting new classes and detecting the
classes that have never been seen. Specifically, we propose a novel extreme
value analyzer to detect objects from old seen, new seen, and unseen classes,
simultaneously. Additionally and technically, we propose two innovative losses,
i.e., background-foreground mean squared error loss alleviating the extreme
imbalance of the background and foreground of images, and projection distance
loss aligning the visual space and semantic spaces of old seen classes.
Experiments demonstrate the efficacy of our model in detecting objects from
both the seen and unseen classes, outperforming the alternative models on
Pascal VOC and MSCOCO datasets.
- Abstract(参考訳): 人間は、新しい未知のクラスを認識できるだけでなく、新しいクラスを既存の知識に段階的に組み込むこともできる。
しかし、ゼロショット学習モデルは、すべてのクラスを事前に知っておくべきだと仮定する一方で、漸進学習モデルは目に見えないクラスを認識できない。
本稿では、実世界の物体検出におけるゼロショット学習とクラスインクリメンタル学習の両方のための実践的戦略であるインクリメンタルゼロショット検出(IZSD)の新規かつ挑戦的な課題を紹介する。
革新的なエンドツーエンドモデル -- IZSD-EVer は、新しいクラスを段階的に検出し、今まで見たことのないクラスを検出する必要があるこのタスクに取り組むために提案された。
具体的には、新しい極値解析器を提案し、古い見え方、新しい見え方、見えないクラスからオブジェクトを同時に検出する。
さらに,画像の背景と前景の極端な不均衡を緩和する背景-前景平均二乗誤差損失と,古い目に見えるクラスの視覚空間と意味空間を整合する投影距離損失の2つの革新的損失を提案する。
実験では, 対象物の検出におけるモデルの有効性を実証し, Pascal VOCおよびMSCOCOデータセット上での代替モデルよりも優れた性能を示した。
関連論文リスト
- Resolving Semantic Confusions for Improved Zero-Shot Detection [6.72910827751713]
本稿では,クラス間の相違度を認識する三重項損失を考慮した生成モデルを提案する。
クラスの生成した視覚的サンプルが、自身のセマンティクスに高度に対応していることを保証するために、サイクリック一貫性損失も実施される。
論文 参考訳(メタデータ) (2022-12-12T18:11:48Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Static-Dynamic Co-Teaching for Class-Incremental 3D Object Detection [71.18882803642526]
ディープラーニングアプローチは、3Dオブジェクト検出タスクにおいて顕著なパフォーマンスを示している。
古いデータを再考することなく、新しいクラスを漸進的に学習するときに、破滅的なパフォーマンス低下に悩まされる。
この「破滅的な忘れ物」現象は、現実世界のシナリオにおける3Dオブジェクト検出アプローチの展開を妨げる。
SDCoTは,新しい静的なコティーチング手法である。
論文 参考訳(メタデータ) (2021-12-14T09:03:41Z) - Bridging Non Co-occurrence with Unlabeled In-the-wild Data for
Incremental Object Detection [56.22467011292147]
物体検出における破滅的忘れを緩和するために,いくつかの漸進的学習法が提案されている。
有効性にもかかわらず、これらの手法は新規クラスのトレーニングデータにラベルのないベースクラスの共起を必要とする。
そこで本研究では,新たな授業の訓練において,欠落した基本クラスが原因で生じる非発生を補うために,未ラベルのインザ・ザ・ワイルドデータを使用することを提案する。
論文 参考訳(メタデータ) (2021-10-28T10:57:25Z) - Towards Generalized and Incremental Few-Shot Object Detection [9.033533653482529]
新規なインクリメンタルFew-Shot Object Detection (iFSOD) 法を提案する。
具体的には、ベースクラスと新規クラスの特徴表現を分離するために、DBF(Double-Branch Framework)を提案する。
我々はPascal VOCとMS-COCOの両方で実験を行い、この手法がインクリメンタル・ショット検出の問題を効果的に解決できることを実証した。
論文 参考訳(メタデータ) (2021-09-23T12:38:09Z) - Multi-View Correlation Distillation for Incremental Object Detection [12.536640582318949]
我々は,新しいtextbfMulti-textbfView textbfCorrelation textbfDistillation (MVCD) を用いたインクリメンタルオブジェクト検出法を提案する。
論文 参考訳(メタデータ) (2021-07-05T04:36:33Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z) - Two-Level Residual Distillation based Triple Network for Incremental
Object Detection [21.725878050355824]
本稿では,より高速なR-CNNに基づく新しいインクリメンタルオブジェクト検出手法を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
論文 参考訳(メタデータ) (2020-07-27T11:04:57Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z) - Incremental Few-Shot Object Detection [96.02543873402813]
OpeN-ended Centre nEtは、いくつかの例でクラスオブジェクトの検出を漸進的に学習する検出器である。
ONCEはインクリメンタルな学習パラダイムを十分に尊重しており、新しいクラス登録では、数発のトレーニングサンプルを1回だけフォワードパスするだけでよい。
論文 参考訳(メタデータ) (2020-03-10T12:56:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。