論文の概要: Incremental Deep Neural Network Learning using Classification Confidence
Thresholding
- arxiv url: http://arxiv.org/abs/2106.11437v1
- Date: Mon, 21 Jun 2021 22:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 15:17:08.241247
- Title: Incremental Deep Neural Network Learning using Classification Confidence
Thresholding
- Title(参考訳): 分類信頼しきい値を用いたインクリメンタル深層ニューラルネットワーク学習
- Authors: Justin Leo and Jugal Kalita
- Abstract要約: 分類のための現代のニューラルネットワークのほとんどは、未知の概念を考慮していない。
本稿では,逐次学習のための素数ニューラルネットワークに対する分類信頼度閾値アプローチを提案する。
- 参考スコア(独自算出の注目度): 4.061135251278187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most modern neural networks for classification fail to take into account the
concept of the unknown. Trained neural networks are usually tested in an
unrealistic scenario with only examples from a closed set of known classes. In
an attempt to develop a more realistic model, the concept of working in an open
set environment has been introduced. This in turn leads to the concept of
incremental learning where a model with its own architecture and initial
trained set of data can identify unknown classes during the testing phase and
autonomously update itself if evidence of a new class is detected. Some
problems that arise in incremental learning are inefficient use of resources to
retrain the classifier repeatedly and the decrease of classification accuracy
as multiple classes are added over time. This process of instantiating new
classes is repeated as many times as necessary, accruing errors. To address
these problems, this paper proposes the Classification Confidence Threshold
approach to prime neural networks for incremental learning to keep accuracies
high by limiting forgetting. A lean method is also used to reduce resources
used in the retraining of the neural network. The proposed method is based on
the idea that a network is able to incrementally learn a new class even when
exposed to a limited number samples associated with the new class. This method
can be applied to most existing neural networks with minimal changes to network
architecture.
- Abstract(参考訳): 分類のための現代のニューラルネットワークのほとんどは、未知の概念を考慮していない。
トレーニングされたニューラルネットワークは通常、既知のクラスを閉じた例でのみ、非現実的なシナリオでテストされる。
より現実的なモデルを開発するために、オープンセット環境で働くという概念が導入された。
これは、独自のアーキテクチャと初期トレーニングされたデータセットを持つモデルがテストフェーズ中に未知のクラスを識別し、新しいクラスの証拠が検出された場合、自律的に自身を更新できるインクリメンタル学習の概念につながる。
インクリメンタル・ラーニングで発生する問題として、分類器の繰り返し再訓練におけるリソースの非効率使用や、時間とともに複数のクラスに対する分類精度の低下が挙げられる。
新しいクラスをインスタンス化するこのプロセスは、エラーを発生させるため、必要に応じて何度も繰り返される。
これらの問題に対処するため,本研究では,素数ニューラルネットワークに対する分類信頼度閾値アプローチを提案する。
リーンメソッドは、ニューラルネットワークの再トレーニングで使用されるリソースを削減するためにも使用される。
提案手法は,新しいクラスに関連する限られた数のサンプルが露出しても,ネットワークが段階的に新しいクラスを学習できる,という考え方に基づいている。
この方法は、ネットワークアーキテクチャを最小限変更することなく、既存のほとんどのニューラルネットワークに適用することができる。
関連論文リスト
- CBR - Boosting Adaptive Classification By Retrieval of Encrypted Network Traffic with Out-of-distribution [9.693391036125908]
一般的なアプローチの1つは、一定の数のクラスで機械学習またはディープラーニングベースのソリューションを使用することである。
未知のクラスを扱うソリューションの1つは、モデルを再トレーニングすることである。
本稿では,暗号ネットワークトラフィック分類の新しいアプローチであるRetrieval CBRによる適応分類を提案する。
論文 参考訳(メタデータ) (2024-03-17T13:14:09Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Multi-Grade Deep Learning [3.0069322256338906]
現在のディープラーニングモデルは、シングルグレードのニューラルネットワークである。
本稿では,より効率的かつ効率的に深層ニューラルネットワークを学習できるマルチグレード学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-01T00:09:56Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - Continual Learning with Bayesian Model based on a Fixed Pre-trained
Feature Extractor [55.9023096444383]
現在のディープラーニングモデルは、新しいクラスを学ぶ際に古い知識を破滅的に忘れることによって特徴づけられる。
人間の脳における新しい知識の学習プロセスに着想を得て,連続学習のためのベイズ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-04-28T08:41:51Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Learning Adaptive Embedding Considering Incremental Class [55.21855842960139]
CIL(Class-Incremental Learning)は,未知のクラスを逐次生成するストリーミングデータを用いて,信頼性の高いモデルをトレーニングすることを目的としている。
従来のクローズドセット学習とは異なり、CILには2つの大きな課題がある。
新たなクラスが検出された後、以前のデータ全体を使用して再トレーニングすることなく、モデルを更新する必要がある。
論文 参考訳(メタデータ) (2020-08-31T04:11:24Z) - Two-Level Residual Distillation based Triple Network for Incremental
Object Detection [21.725878050355824]
本稿では,より高速なR-CNNに基づく新しいインクリメンタルオブジェクト検出手法を提案する。
従来の学習知識を忘れることなく、新しいクラスでの漸進的なモデル学習を支援するためのアシスタントとして、古いモデルと残留モデルを使用する三重ネットワークである。
論文 参考訳(メタデータ) (2020-07-27T11:04:57Z) - Semantic Drift Compensation for Class-Incremental Learning [48.749630494026086]
ディープネットワークのクラス増分学習は、分類対象のクラス数を順次増加させる。
本研究では,特徴のセマンティックドリフト(セマンティックドリフト)と呼ばれるドリフトを推定し,その補正を行う新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-01T13:31:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。