論文の概要: Twin Neural Network Regression
- arxiv url: http://arxiv.org/abs/2012.14873v1
- Date: Tue, 29 Dec 2020 17:52:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:45:59.764853
- Title: Twin Neural Network Regression
- Title(参考訳): ツインニューラルネットの回帰
- Authors: Sebastian J. Wetzel, Kevin Ryczko, Roger G. Melko, Isaac Tamblyn
- Abstract要約: ツインニューラルネットワーク(TNN)レグレッションを導入する。
本手法は,ターゲット自体ではなく,2つの異なるデータポイントの目標値の違いを予測する。
TNNは、他の最先端手法と比較して、異なるデータセットに対してより正確な予測を行うことができることを示す。
- 参考スコア(独自算出の注目度): 0.802904964931021
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce twin neural network (TNN) regression. This method predicts
differences between the target values of two different data points rather than
the targets themselves. The solution of a traditional regression problem is
then obtained by averaging over an ensemble of all predicted differences
between the targets of an unseen data point and all training data points.
Whereas ensembles are normally costly to produce, TNN regression intrinsically
creates an ensemble of predictions of twice the size of the training set while
only training a single neural network. Since ensembles have been shown to be
more accurate than single models this property naturally transfers to TNN
regression. We show that TNNs are able to compete or yield more accurate
predictions for different data sets, compared to other state-of-the-art
methods. Furthermore, TNN regression is constrained by self-consistency
conditions. We find that the violation of these conditions provides an estimate
for the prediction uncertainty.
- Abstract(参考訳): ツインニューラルネットワーク(TNN)レグレッションを導入する。
本手法は,ターゲット自体ではなく,2つの異なるデータポイントの目標値の違いを予測する。
従来の回帰問題の解は、未知のデータポイントのターゲットと全てのトレーニングデータポイントの全ての予測された差のアンサンブルを平均化することによって得られる。
アンサンブルは通常コストがかかるが、TNN回帰は本質的に1つのニューラルネットワークのみをトレーニングしながら、トレーニングセットの2倍の大きさの予測のアンサンブルを生成する。
アンサンブルは単一モデルよりも正確であることが示されているので、この性質は自然にTNN回帰に遷移する。
TNNは、他の最先端手法と比較して、異なるデータセットに対してより正確な予測を行うことができることを示す。
さらに、TNN回帰は自己整合条件によって制約される。
これらの条件に違反すると予測の不確実性が推定される。
関連論文リスト
- Statistical Properties of Deep Neural Networks with Dependent Data [0.0]
本稿では, ディープニューラルネットワーク (DNN) 推定器の統計特性について, 従属データに基づく検討を行った。
このフレームワークは、他のDNNアーキテクチャや時系列アプリケーションの研究の可能性も提供する。
論文 参考訳(メタデータ) (2024-10-14T21:46:57Z) - Twin Neural Network Improved k-Nearest Neighbor Regression [0.0]
ツインニューラルネットワークレグレッションは、ターゲット自体よりもレグレッションターゲットの違いを予測するために訓練される。
未知のデータポイントのターゲットと既知の複数のアンカーデータポイントとの予測差をアンカーに組み込むことで、元の回帰問題の解を得ることができる。
論文 参考訳(メタデータ) (2023-10-01T13:20:49Z) - Boosted Dynamic Neural Networks [53.559833501288146]
典型的なEDNNは、ネットワークバックボーンの異なる層に複数の予測ヘッドを持つ。
モデルを最適化するために、これらの予測ヘッドとネットワークバックボーンは、トレーニングデータのバッチ毎にトレーニングされる。
トレーニングと2つのフェーズでのインプットの異なるテストは、トレーニングとデータ分散のテストのミスマッチを引き起こす。
EDNNを勾配強化にインスパイアされた付加モデルとして定式化し、モデルを効果的に最適化するための複数のトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-11-30T04:23:12Z) - Deep Regression Ensembles [0.0]
我々は、ディープ・ニューラルネットワーク(DNN)を設計し、訓練するための方法論を導入し、「ディープ・レグレッション・アンサンブル(Deep Regression Ensembles)」と呼ぶ。
ランダムな特徴回帰でトレーニングされたDNNと2層ニューラルネットワークのギャップを埋める。
我々の実験は、単一のDREアーキテクチャが多くのデータセットにおいて最先端のDNNと同等かそれ以上であることを示している。
論文 参考訳(メタデータ) (2022-03-10T15:13:46Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Twin Neural Network Regression is a Semi-Supervised Regression Algorithm [0.90238471756546]
ツインニューラルネットワーク回帰(TNNR)は、半教師付き回帰アルゴリズムである。
TNNRは、ターゲット自体ではなく、2つの異なるデータポイントのターゲット値の違いを予測するように訓練されている。
論文 参考訳(メタデータ) (2021-06-11T02:10:52Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z) - One Versus all for deep Neural Network Incertitude (OVNNI)
quantification [12.734278426543332]
本稿では,データの疫学的不確実性を容易に定量化するための新しい手法を提案する。
本手法は,1つのクラス対他のクラス(OVA)を分類するために訓練されたDNNのアンサンブルの予測と,オール対オール(AVA)分類を実行するために訓練された標準DNNの予測とを混合して構成する。
論文 参考訳(メタデータ) (2020-06-01T14:06:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。