論文の概要: An Empirical Study of Incremental Learning in Neural Network with Noisy
Training Set
- arxiv url: http://arxiv.org/abs/2005.03266v1
- Date: Thu, 7 May 2020 06:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:40:12.983959
- Title: An Empirical Study of Incremental Learning in Neural Network with Noisy
Training Set
- Title(参考訳): 雑音トレーニングセットを用いたニューラルネットワークのインクリメンタル学習に関する実験的検討
- Authors: Shovik Ganguly, Atrayee Chatterjee, Debasmita Bhoumik, Ritajit
Majumdar
- Abstract要約: 我々は,アルゴリズムの精度が誤差の割合よりも誤差の位置に依存することを数値的に示す。
その結果,誤差位置の精度依存性はアルゴリズムとは無関係であることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The notion of incremental learning is to train an ANN algorithm in stages, as
and when newer training data arrives. Incremental learning is becoming
widespread in recent times with the advent of deep learning. Noise in the
training data reduces the accuracy of the algorithm. In this paper, we make an
empirical study of the effect of noise in the training phase. We numerically
show that the accuracy of the algorithm is dependent more on the location of
the error than the percentage of error. Using Perceptron, Feed Forward Neural
Network and Radial Basis Function Neural Network, we show that for the same
percentage of error, the accuracy of the algorithm significantly varies with
the location of error. Furthermore, our results show that the dependence of the
accuracy with the location of error is independent of the algorithm. However,
the slope of the degradation curve decreases with more sophisticated algorithms
- Abstract(参考訳): 漸進的な学習の概念は、新しいトレーニングデータが到着した時点で、ANNアルゴリズムを段階的にトレーニングすることである。
近年,ディープラーニングの出現に伴い,インクリメンタル学習が普及している。
トレーニングデータのノイズはアルゴリズムの精度を低下させる。
本稿では,学習段階における雑音の影響を実証的に検討する。
我々は,アルゴリズムの精度が誤差の割合よりも誤差の位置に依存することを数値的に示す。
Perceptron, Feed Forward Neural Network, Radial Basis Function Neural Network を用いて, 誤差の同じ割合において, アルゴリズムの精度は誤差の位置によって大きく変化することを示す。
さらに,誤差の位置に対する精度の依存性はアルゴリズムに依存しないことを示した。
しかし,より高度なアルゴリズムにより劣化曲線の傾きは減少する。
関連論文リスト
- SGD method for entropy error function with smoothing l0 regularization for neural networks [3.108634881604788]
エントロピー誤差関数はニューラルネットワークで広く使われている。
本稿では,フィードフォワードニューラルネットワークの規則化を円滑に行うエントロピー関数を提案する。
ニューラルネットワークを効果的に学習し、より正確な予測を可能にするため、私たちの仕事は新しくなっています。
論文 参考訳(メタデータ) (2024-05-28T19:54:26Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Network Gradient Descent Algorithm for Decentralized Federated Learning [0.2867517731896504]
本稿では,コミュニケーションベースネットワーク上で実行される新しい勾配勾配アルゴリズムである,完全に分散化されたフェデレーション学習アルゴリズムについて検討する。
NGD法では、統計(パラメータ推定など)のみを通信し、プライバシーのリスクを最小限に抑える必要がある。
学習速度とネットワーク構造の両方が,NGD推定器の統計的効率を決定する上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2022-05-06T02:53:31Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - SignalNet: A Low Resolution Sinusoid Decomposition and Estimation
Network [79.04274563889548]
本稿では,正弦波数を検出するニューラルネットワークアーキテクチャであるSignalNetを提案する。
基礎となるデータ分布と比較して,ネットワークの結果を比較するための最悪の学習しきい値を導入する。
シミュレーションでは、我々のアルゴリズムは常に3ビットデータのしきい値を超えることができるが、しばしば1ビットデータのしきい値を超えることはできない。
論文 参考訳(メタデータ) (2021-06-10T04:21:20Z) - Demystifying Deep Neural Networks Through Interpretation: A Survey [3.566184392528658]
現代のディープラーニングアルゴリズムは、トレーニングデータセットにおけるクロスエントロピー損失を最小限に抑えるなど、客観的なメトリックを最適化して学習する傾向にある。
問題は、単一の計量が現実世界のタスクの不完全な記述であることだ。
ニューラルネットワークの振る舞いや思考プロセスに関する洞察を提供するために、解釈可能性という問題に取り組む作業が行われている。
論文 参考訳(メタデータ) (2020-12-13T17:56:41Z) - Improving Bayesian Network Structure Learning in the Presence of
Measurement Error [11.103936437655575]
本稿では,構造学習アルゴリズムの最後に付加的な学習フェーズとして加えることができるアルゴリズムについて述べる。
提案アルゴリズムは、4つの確立された構造学習アルゴリズムのグラフィカルスコアの改善に成功している。
論文 参考訳(メタデータ) (2020-11-19T11:27:47Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。