論文の概要: Class-Incremental Few-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2105.07637v1
- Date: Mon, 17 May 2021 06:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:45:15.285136
- Title: Class-Incremental Few-Shot Object Detection
- Title(参考訳): クラスインクリメンタルFew-Shotオブジェクト検出
- Authors: Pengyang Li, Yanan Li and Donghui Wang
- Abstract要約: 本稿では,より挑戦的で現実的なクラスインクリメンタルなオブジェクト検出問題(ifsd)に着目する。
それまで学んだことを壊滅的に忘れずに、少数の注釈付きサンプルから新しいオブジェクトのモデルを段階的に移行することを目的としている。
忘れることの少ないLEAST、fEwerトレーニングリソース、およびより強力な転送能力で転送できる新しい方法を提案します。
- 参考スコア(独自算出の注目度): 8.569278547520438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional detection networks usually need abundant labeled training
samples, while humans can learn new concepts incrementally with just a few
examples. This paper focuses on a more challenging but realistic
class-incremental few-shot object detection problem (iFSD). It aims to
incrementally transfer the model for novel objects from only a few annotated
samples without catastrophically forgetting the previously learned ones. To
tackle this problem, we propose a novel method LEAST, which can transfer with
Less forgetting, fEwer training resources, And Stronger Transfer capability.
Specifically, we first present the transfer strategy to reduce unnecessary
weight adaptation and improve the transfer capability for iFSD. On this basis,
we then integrate the knowledge distillation technique using a less
resource-consuming approach to alleviate forgetting and propose a novel
clustering-based exemplar selection process to preserve more discriminative
features previously learned. Being a generic and effective method, LEAST can
largely improve the iFSD performance on various benchmarks.
- Abstract(参考訳): 従来の検出ネットワークは通常、豊富なラベル付きトレーニングサンプルを必要とするが、人間はほんの数例で新しい概念をインクリメンタルに学習できる。
本稿では,より困難だが現実的なクラスインクリメンタルなオブジェクト検出問題(iFSD)に焦点を当てる。
それまで学んだことを壊滅的に忘れずに、少数の注釈付きサンプルから新しいオブジェクトのモデルを段階的に移行することを目的としている。
この問題に取り組むために, 学習資源の削減, 伝達能力の強化などにより, 少ない転送能力を実現する新しい手法を提案する。
具体的には、まず、不必要な重量適応を減らし、iFSDの転送能力を向上させるための転送戦略を示す。
そこで我々は, 資源消費の少ない手法を用いて知識蒸留技術を統合することにより, 忘れを軽減し, 以前に学習したより差別的な特徴を保ちつつ, クラスタリングに基づく優れた選択プロセスを提案する。
LEASTは汎用的で効果的な方法であるため、様々なベンチマークでのiFSD性能を大幅に改善することができる。
関連論文リスト
- Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - Squeezing Backbone Feature Distributions to the Max for Efficient
Few-Shot Learning [3.1153758106426603]
ラベル付きサンプルの少ない使用によって生じる不確実性のため、ほとんどショット分類が難しい問題である。
本稿では,特徴ベクトルをガウス分布に近づけるように処理するトランスファーベース手法を提案する。
また,学習中に未学習のサンプルが利用可能となる多段階的数ショット学習では,達成された性能をさらに向上させる最適なトランスポートインスピレーションアルゴリズムも導入する。
論文 参考訳(メタデータ) (2021-10-18T16:29:17Z) - Towards Generalized and Incremental Few-Shot Object Detection [9.033533653482529]
新規なインクリメンタルFew-Shot Object Detection (iFSOD) 法を提案する。
具体的には、ベースクラスと新規クラスの特徴表現を分離するために、DBF(Double-Branch Framework)を提案する。
我々はPascal VOCとMS-COCOの両方で実験を行い、この手法がインクリメンタル・ショット検出の問題を効果的に解決できることを実証した。
論文 参考訳(メタデータ) (2021-09-23T12:38:09Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Towards Accurate Knowledge Transfer via Target-awareness Representation
Disentanglement [56.40587594647692]
本稿では,TRED(Target-Awareness Representation Disentanglement)の概念を取り入れた新しいトランスファー学習アルゴリズムを提案する。
TREDは、対象のタスクに関する関連する知識を元のソースモデルから切り離し、ターゲットモデルを微調整する際、レギュレータとして使用する。
各種実世界のデータセットを用いた実験により,本手法は標準微調整を平均2%以上安定的に改善することが示された。
論文 参考訳(メタデータ) (2020-10-16T17:45:08Z) - Unsupervised Transfer Learning for Spatiotemporal Predictive Networks [90.67309545798224]
我々は、教師なし学習されたモデルの動物園から別のネットワークへ知識を伝達する方法を研究する。
私たちのモチベーションは、モデルは異なるソースからの複雑なダイナミクスを理解することが期待されていることです。
提案手法は,時間的予測のための3つのベンチマークで大幅に改善され,重要度が低いベンチマークであっても,ターゲットのメリットが得られた。
論文 参考訳(メタデータ) (2020-09-24T15:40:55Z) - Sample-based Regularization: A Transfer Learning Strategy Toward Better
Generalization [8.432864879027724]
少量のデータでディープニューラルネットワークをトレーニングすることは、難しい問題である。
私たちがよく直面する現実的な難題の1つは、多くのサンプルを集めることです。
大規模なデータセットでトレーニングされたソースモデルを使用することで、トレーニングデータの不足に起因する過度な適合を軽減することができる。
論文 参考訳(メタデータ) (2020-07-10T06:02:05Z) - Generalized Zero and Few-Shot Transfer for Facial Forgery Detection [3.8073142980733]
フォージェリ検出の文脈でゼロおよび少数ショット転送の問題に対処する新しいトランスファー学習手法を提案する。
従来の分類や最先端のドメイン適応/ファウショット学習手法と比較して,この学習戦略は驚くほど効果的である。
論文 参考訳(メタデータ) (2020-06-21T18:10:52Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。