論文の概要: Error Loss Networks
- arxiv url: http://arxiv.org/abs/2106.03722v2
- Date: Tue, 8 Jun 2021 05:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 11:56:17.202372
- Title: Error Loss Networks
- Title(参考訳): エラー損失ネットワーク
- Authors: Badong Chen, Yunfei Zheng, and Pengju Ren
- Abstract要約: 教師付き学習のための誤り損失関数を構築するために,エラー損失ネットワーク(ELN)と呼ばれる新しいモデルを提案する。
ELNは、放射基底関数(RBF)ニューラルネットワークに似た構造であるが、その入力はエラーサンプルであり、出力はそのエラーサンプルに対応する損失である。
- 参考スコア(独自算出の注目度): 20.142263839621588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A novel model called error loss network (ELN) is proposed to build an error
loss function for supervised learning. The ELN is in structure similar to a
radial basis function (RBF) neural network, but its input is an error sample
and output is a loss corresponding to that error sample. That means the
nonlinear input-output mapper of ELN creates an error loss function. The
proposed ELN provides a unified model for a large class of error loss
functions, which includes some information theoretic learning (ITL) loss
functions as special cases. The activation function, weight parameters and
network size of the ELN can be predetermined or learned from the error samples.
On this basis, we propose a new machine learning paradigm where the learning
process is divided into two stages: first, learning a loss function using an
ELN; second, using the learned loss function to continue to perform the
learning. Experimental results are presented to demonstrate the desirable
performance of the new method.
- Abstract(参考訳): 教師付き学習のための誤り損失関数を構築するために,エラー損失ネットワーク(ELN)と呼ばれる新しいモデルを提案する。
ELNは、放射基底関数(RBF)ニューラルネットワークに似た構造であるが、その入力はエラーサンプルであり、出力はそのエラーサンプルに対応する損失である。
つまり、ELNの非線形入出力マッパーはエラー損失関数を生成する。
提案するelnは、情報理論学習(itl)損失関数を特殊ケースとして含む、エラー損失関数の大規模クラスに対する統一モデルを提供する。
ELNの活性化関数、重みパラメータ、ネットワークサイズを、エラーサンプルから特定または学習することができる。
そこで本研究では,学習過程をelnを用いた損失関数の学習,学習継続のための学習損失関数の学習の2段階に分けた新しい機械学習パラダイムを提案する。
提案手法の望ましい性能を示す実験結果が提示された。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Alternate Loss Functions for Classification and Robust Regression Can Improve the Accuracy of Artificial Neural Networks [6.452225158891343]
本稿では,ニューラルネットワークのトレーニング速度と最終的な精度が,ニューラルネットワークのトレーニングに使用する損失関数に大きく依存することを示す。
様々なベンチマークタスクの性能を著しく向上させる2つの新しい分類損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-17T12:52:06Z) - Xtreme Margin: A Tunable Loss Function for Binary Classification
Problems [0.0]
本稿では,新しい損失関数 Xtreme Margin の損失関数について概説する。
二進的クロスエントロピーやヒンジ損失関数とは異なり、この損失関数は研究者や実践者がトレーニングプロセスに柔軟性をもたらす。
論文 参考訳(メタデータ) (2022-10-31T22:39:32Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Fast and Accurate Error Simulation for CNNs against Soft Errors [64.54260986994163]
本稿では,誤りシミュレーションエンジンを用いて,コナールニューラルネットワーク(CNN)の信頼性解析のためのフレームワークを提案する。
これらの誤差モデルは、故障によって誘導されるCNN演算子の出力の破損パターンに基づいて定義される。
提案手法は,SASSIFIの欠陥効果の約99%の精度と,限定的なエラーモデルのみを実装した44倍から63倍までのスピードアップを実現する。
論文 参考訳(メタデータ) (2022-06-04T19:45:02Z) - Concise Logarithmic Loss Function for Robust Training of Anomaly
Detection Model [0.0]
ニューラルネットワークをより安定させるためには、適切なニューラルネットワーク構造や損失関数を定義する必要がある。
トレーニング異常検出モデルでは,平均二乗誤差(MSE)関数が広く採用されている。
本稿では,新たな損失関数である対数平均二乗誤差(LMSE)を提案し,ニューラルネットワークをより安定に訓練する。
論文 参考訳(メタデータ) (2022-01-15T03:22:15Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Finding hidden-feature depending laws inside a data set and classifying
it using Neural Network [0.0]
ニューラルネットワークのlogcosh損失関数は、異常値の重み付けを行わない絶対誤差損失関数の利点と、平均付近における連続微分の平均二乗誤差の利点を組み合わせるために開発された。
本研究は,logcosh損失を持つ人工ニューラルネットワークを用いてパラメータ-アウトカムサンプルセットのセット値マッピングの分岐を探索し,それらの分岐に従ってサンプルを分類する手法を提案する。
論文 参考訳(メタデータ) (2021-01-25T21:37:37Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - A Loss-Function for Causal Machine-Learning [0.0]
因果機械学習は、治療のネットエフェクト(真のリフト)を予測することである。
データにポイントワイド真の値がないため、同様のよく定義された損失関数は存在しない。
この文脈で損失関数を定義する新しい手法を提案し、これは標準回帰問題における平均二乗誤差(MSE)と等しい。
論文 参考訳(メタデータ) (2020-01-02T21:22:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。