論文の概要: Faster ILOD: Incremental Learning for Object Detectors based on Faster
RCNN
- arxiv url: http://arxiv.org/abs/2003.03901v2
- Date: Wed, 7 Oct 2020 00:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 08:50:44.462476
- Title: Faster ILOD: Incremental Learning for Object Detectors based on Faster
RCNN
- Title(参考訳): Faster ILOD: Faster RCNNに基づくオブジェクト検出器のインクリメンタル学習
- Authors: Can Peng, Kun Zhao and Brian C. Lovell
- Abstract要約: 我々は知識蒸留を用いた効率的なエンドツーエンドインクリメンタルオブジェクト検出器を設計する。
ベンチマークデータセットであるPASCAL VOCとCOCOの実験は、提案されたFaster RCNNに基づくインクリメンタル検出器の方が精度が高く、ベースライン検出器の13倍高速であることを示した。
- 参考スコア(独自算出の注目度): 10.601349348583852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The human vision and perception system is inherently incremental where new
knowledge is continually learned over time whilst existing knowledge is
retained. On the other hand, deep learning networks are ill-equipped for
incremental learning. When a well-trained network is adapted to new categories,
its performance on the old categories will dramatically degrade. To address
this problem, incremental learning methods have been explored which preserve
the old knowledge of deep learning models. However, the state-of-the-art
incremental object detector employs an external fixed region proposal method
that increases overall computation time and reduces accuracy comparing to
Region Proposal Network (RPN) based object detectors such as Faster RCNN. The
purpose of this paper is to design an efficient end-to-end incremental object
detector using knowledge distillation. We first evaluate and analyze the
performance of the RPN-based detector with classic distillation on incremental
detection tasks. Then, we introduce multi-network adaptive distillation that
properly retains knowledge from the old categories when fine-tuning the model
for new task. Experiments on the benchmark datasets, PASCAL VOC and COCO,
demonstrate that the proposed incremental detector based on Faster RCNN is more
accurate as well as being 13 times faster than the baseline detector.
- Abstract(参考訳): 人間の視覚と知覚システムは本質的に漸進的であり、新しい知識は時間とともに継続的に学習され、既存の知識は保持される。
一方で、ディープラーニングネットワークは、インクリメンタルな学習には不備がある。
十分に訓練されたネットワークが新しいカテゴリに適応されると、古いカテゴリのパフォーマンスは劇的に低下する。
この問題に対処するために、ディープラーニングモデルの古い知識を保存するインクリメンタル学習手法が研究されている。
しかし、最先端のインクリメンタルオブジェクト検出器は、全体的な計算時間を増やし、より高速なRCNNのような領域提案ネットワーク(RPN)ベースのオブジェクト検出器と比較して精度を低下させる、外部固定領域提案手法を採用している。
本研究の目的は,知識蒸留を用いた効率的なエンドツーエンドインクリメンタルオブジェクト検出器の設計である。
まず,古典蒸留によるRPN検出器の性能をインクリメンタル検出タスクで評価し,解析した。
次に,新しいタスクのためにモデルを微調整する際に,旧カテゴリの知識を適切に保持するマルチネットワーク適応蒸留を導入する。
ベンチマークデータセットであるPASCAL VOCとCOCOの実験は、提案されたFaster RCNNに基づくインクリメンタル検出器の方が精度が高く、ベースライン検出器の13倍高速であることを示した。
関連論文リスト
- NIDS Neural Networks Using Sliding Time Window Data Processing with Trainable Activations and its Generalization Capability [0.0]
本稿では,ネットワーク侵入検知システム(NIDS)のためのニューラルネットワークについて述べる。
ディープパケットインスペクションに頼らず、ほとんどのNIDSデータセットで見つからず、従来のフローコレクタから簡単に取得できる11の機能しか必要としない。
報告されたトレーニング精度は、提案手法の99%を超え、ニューラルネットワークの入力特性は20に満たない。
論文 参考訳(メタデータ) (2024-10-24T11:36:19Z) - Deep Learning Algorithms Used in Intrusion Detection Systems -- A Review [0.0]
本稿では,CNN,Recurrent Neural Networks(RNN),Deep Belief Networks(DBN),Deep Neural Networks(DNN),Long Short-Term Memory(LSTM),Autoencoders(AE),Multi-Layer Perceptrons(MLP),Self-Normalizing Networks(SNN),Hybrid Model(ネットワーク侵入検知システム)など,近年のディープラーニング技術の進歩について述べる。
論文 参考訳(メタデータ) (2024-02-26T20:57:35Z) - Dense Network Expansion for Class Incremental Learning [61.00081795200547]
最先端のアプローチでは、ネットワーク拡張(NE)に基づいた動的アーキテクチャを使用し、タスクごとにタスクエキスパートを追加する。
精度とモデル複雑性のトレードオフを改善するために,新しい NE 手法である高密度ネットワーク拡張 (DNE) を提案する。
従来のSOTA法では、類似またはより小さなモデルスケールで、精度の点で4%のマージンで性能が向上した。
論文 参考訳(メタデータ) (2023-03-22T16:42:26Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Energy-based Latent Aligner for Incremental Learning [83.0135278697976]
ディープラーニングモデルは、新しいタスクを漸進的に学習しながら、以前の知識を忘れる傾向があります。
この振る舞いは、新しいタスクに最適化されたパラメータ更新が、古いタスクに適したアップデートとうまく一致しない可能性があるため現れます。
ELI: インクリメンタルラーニングのためのエネルギーベースラテントアリグナーを提案する。
論文 参考訳(メタデータ) (2022-03-28T17:57:25Z) - SID: Incremental Learning for Anchor-Free Object Detection via Selective
and Inter-Related Distillation [16.281712605385316]
増分学習は、ストリーミングデータから新しいタスクを継続的に学習するモデルを必要とする。
新しいタスクでよく訓練されたディープニューラルネットワークの従来の微調整は、古いタスクのパフォーマンスを劇的に低下させる。
SID(Selective and Inter-related Distillation)と呼ばれる新しい漸進的学習パラダイムを提案する。
論文 参考訳(メタデータ) (2020-12-31T04:12:06Z) - Lifelong Object Detection [28.608982224098565]
私たちは、新しいトレーニングクラスが逐次的に到着し、モデルを漸進的に洗練するという事実を活用します。
我々は、高精度かつ効率的な予測のために、代表対象検出器であるFaster R-CNNを検討する。
論文 参考訳(メタデータ) (2020-09-02T15:08:51Z) - Two-Level Residual Distillation based Triple Network for Incremental
Object Detection [21.725878050355824]
本稿では,より高速なR-CNNに基づく新しいインクリメンタルオブジェクト検出手法を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
論文 参考訳(メタデータ) (2020-07-27T11:04:57Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z) - Incremental Object Detection via Meta-Learning [77.55310507917012]
本稿では,段階的タスク間の情報を最適に共有するように,モデル勾配を再形成するメタラーニング手法を提案する。
既存のメタ学習法と比較して,本手法はタスク非依存であり,オブジェクト検出のための高容量モデルに新たなクラスやスケールを段階的に追加することができる。
論文 参考訳(メタデータ) (2020-03-17T13:40:00Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。