論文の概要: Twin Neural Network Regression is a Semi-Supervised Regression Algorithm
- arxiv url: http://arxiv.org/abs/2106.06124v1
- Date: Fri, 11 Jun 2021 02:10:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 14:12:15.651979
- Title: Twin Neural Network Regression is a Semi-Supervised Regression Algorithm
- Title(参考訳): Twin Neural Network Regression - 半教師付き回帰アルゴリズム
- Authors: Sebastian J. Wetzel, Roger G. Melko, Isaac Tamblyn
- Abstract要約: ツインニューラルネットワーク回帰(TNNR)は、半教師付き回帰アルゴリズムである。
TNNRは、ターゲット自体ではなく、2つの異なるデータポイントのターゲット値の違いを予測するように訓練されている。
- 参考スコア(独自算出の注目度): 0.90238471756546
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Twin neural network regression (TNNR) is a semi-supervised regression
algorithm, it can be trained on unlabelled data points as long as other,
labelled anchor data points, are present. TNNR is trained to predict
differences between the target values of two different data points rather than
the targets themselves. By ensembling predicted differences between the targets
of an unseen data point and all training data points, it is possible to obtain
a very accurate prediction for the original regression problem. Since any loop
of predicted differences should sum to zero, loops can be supplied to the
training data, even if the data points themselves within loops are unlabelled.
Semi-supervised training improves TNNR performance, which is already state of
the art, significantly.
- Abstract(参考訳): ツインニューラルネットワーク回帰(TNNR)は、半教師付き回帰アルゴリズムであり、ラベル付きアンカーデータポイントが存在する限り、ラベル付きアンカーデータポイントでトレーニングすることができる。
TNNRは、ターゲット自体ではなく、2つの異なるデータポイントのターゲット値の違いを予測するように訓練されている。
未知のデータポイントの目標とすべてのトレーニングデータポイントとの予測誤差をセンセンブルすることで、元の回帰問題の非常に正確な予測を得ることができる。
予測された違いのループはすべてゼロにまとめられるため、ループ内のデータ自体がラベルされていない場合でも、トレーニングデータにループが供給される。
セミ教師付きトレーニングは、すでに最先端にあるTNNRのパフォーマンスを大幅に改善する。
関連論文リスト
- Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Flexible Heteroscedastic Count Regression with Deep Double Poisson Networks [4.58556584533865]
本稿ではDDPN(Deep Double Poisson Network)を提案する。
DDPNは既存の離散モデルを大幅に上回っている。
これは様々なカウント回帰データセットに適用できる。
論文 参考訳(メタデータ) (2024-06-13T16:02:03Z) - Twin Neural Network Improved k-Nearest Neighbor Regression [0.0]
ツインニューラルネットワークレグレッションは、ターゲット自体よりもレグレッションターゲットの違いを予測するために訓練される。
未知のデータポイントのターゲットと既知の複数のアンカーデータポイントとの予測差をアンカーに組み込むことで、元の回帰問題の解を得ることができる。
論文 参考訳(メタデータ) (2023-10-01T13:20:49Z) - A step towards understanding why classification helps regression [16.741816961905947]
本研究では,不均衡データを用いた回帰において,分類損失の付加効果が最も顕著であることを示す。
回帰タスクでは、データサンプリングが不均衡であれば、分類損失を加えます。
論文 参考訳(メタデータ) (2023-08-21T10:00:46Z) - Evaluating Graph Neural Networks for Link Prediction: Current Pitfalls
and New Benchmarking [66.83273589348758]
リンク予測は、グラフのエッジの一部のみに基づいて、目に見えないエッジが存在するかどうかを予測しようとする。
近年,この課題にグラフニューラルネットワーク(GNN)を活用すべく,一連の手法が導入されている。
これらの新しいモデルの有効性をよりよく評価するために、新しい多様なデータセットも作成されている。
論文 参考訳(メタデータ) (2023-06-18T01:58:59Z) - How to get the most out of Twinned Regression Methods [0.0]
双対回帰法は、元の回帰問題の双対問題を解くために設計されている。
未知のデータポイントのターゲットと既知の複数のアンカーデータポイントとの予測差をアンカーに組み込むことで、元の回帰問題の解を得ることができる。
論文 参考訳(メタデータ) (2023-01-03T22:37:44Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Twin Neural Network Regression [0.802904964931021]
ツインニューラルネットワーク(TNN)レグレッションを導入する。
本手法は,ターゲット自体ではなく,2つの異なるデータポイントの目標値の違いを予測する。
TNNは、他の最先端手法と比較して、異なるデータセットに対してより正確な予測を行うことができることを示す。
論文 参考訳(メタデータ) (2020-12-29T17:52:31Z) - Deep learning for gravitational-wave data analysis: A resampling
white-box approach [62.997667081978825]
我々は、LIGO検出器からの単一干渉計データを用いて、畳み込みニューラルネットワーク(CNN)を用いて、コンパクトなバイナリコレッセンスにおける重力波(GW)信号を検出する。
CNNはノイズを検出するのに非常に正確だが、GW信号のリコールに十分な感度がないため、CNNはGWトリガの生成よりもノイズ低減に適している。
論文 参考訳(メタデータ) (2020-09-09T03:28:57Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。