論文の概要: More layers! End-to-end regression and uncertainty on tabular data with
deep learning
- arxiv url: http://arxiv.org/abs/2112.03566v1
- Date: Tue, 7 Dec 2021 08:41:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 23:24:25.557840
- Title: More layers! End-to-end regression and uncertainty on tabular data with
deep learning
- Title(参考訳): もっとレイヤー!
ディープラーニングを用いた表データのエンドツーエンド回帰と不確実性
- Authors: Ivan Bondarenko
- Abstract要約: 決定木とそのアンサンブルがこの領域の主要な方法であると考えられている。
ディープニューラルネットワークは、勾配に基づく階層表現を構築するためのフレームワークである。
本稿では,不確実性を伴う回帰問題に対するエンドツーエンドアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper attempts to analyze the effectiveness of deep learning for tabular
data processing. It is believed that decision trees and their ensembles is the
leading method in this domain, and deep neural networks must be content with
computer vision and so on. But the deep neural network is a framework for
building gradient-based hierarchical representations, and this key feature
should be able to provide the best processing of generic structured (tabular)
data, not just image matrices and audio spectrograms. This problem is
considered through the prism of the Weather Prediction track in the Yandex
Shifts challenge (in other words, the Yandex Shifts Weather task). This task is
a variant of the classical tabular data regression problem. It is also
connected with another important problem: generalization and uncertainty in
machine learning. This paper proposes an end-to-end algorithm for solving the
problem of regression with uncertainty on tabular data, which is based on the
combination of four ideas: 1) deep ensemble of self-normalizing neural
networks, 2) regression as parameter estimation of the Gaussian target error
distribution, 3) hierarchical multitask learning, and 4) simple data
preprocessing. Three modifications of the proposed algorithm form the top-3
leaderboard of the Yandex Shifts Weather challenge respectively. This paper
considers that this success has occurred due to the fundamental properties of
the deep learning algorithm, and tries to prove this.
- Abstract(参考訳): 本稿では,表型データ処理における深層学習の有効性について検討する。
この領域では決定木とそのアンサンブルが主要な手法であり、ディープニューラルネットワークはコンピュータビジョンなどで満足しなければならないと考えられている。
しかし、ディープニューラルネットワークは勾配に基づく階層表現を構築するためのフレームワークであり、この重要な機能は、画像行列やオーディオスペクトログラムだけでなく、汎用的な構造化(タブラル)データの最良の処理を提供することができるべきである。
この問題は、yandex shifts challenge(言い換えれば、yandex shifts weather task)における天気予報トラックのプリズムによって考慮される。
このタスクは、古典的な表型データ回帰問題の変種である。
また、機械学習における一般化と不確実性という別の重要な問題とも関係している。
本稿では,4つのアイデアを組み合わせることで,表型データに対する不確かさを解消するエンドツーエンドアルゴリズムを提案する。
1)自己正規化ニューラルネットワークの深層アンサンブル
2)ガウス目標誤差分布のパラメータ推定としての回帰
3)階層型マルチタスク学習,そして
4) 単純なデータ前処理。
提案アルゴリズムの3つの修正は、それぞれyandex shifts weather challengeのトップ3リーダーボードを形成する。
本稿では,ディープラーニングアルゴリズムの基本的な性質から,この成功がもたらされたと考え,これを証明しようと試みる。
関連論文リスト
- An Initialization Schema for Neuronal Networks on Tabular Data [0.9155684383461983]
本稿では,二項ニューラルネットワークが表データに対して有効に利用できることを示す。
提案手法はニューラルネットワークの最初の隠蔽層を初期化するための単純だが効果的なアプローチを示す。
我々は、複数の公開データセットに対する我々のアプローチを評価し、他のニューラルネットワークベースのアプローチと比較して、改善されたパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-11-07T13:52:35Z) - Hidden Classification Layers: Enhancing linear separability between
classes in neural networks layers [0.0]
トレーニング手法の深層ネットワーク性能への影響について検討する。
本稿では,全てのネットワークレイヤの出力を含むエラー関数を誘導するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-09T10:52:49Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Explainable Deep Belief Network based Auto encoder using novel Extended
Garson Algorithm [6.228766191647919]
我々はDeep Belief Network based Auto-Encoder (DBNA) を説明するアルゴリズムを開発した。
DBN内の各入力機能のコントリビューションを決定するために使用される。
この方法によって同定された重要な特徴は、ウォルドチ広場(chi2)で得られたものと比較される。
論文 参考訳(メタデータ) (2022-07-18T10:44:02Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Compressive Sensing and Neural Networks from a Statistical Learning
Perspective [4.561032960211816]
線形測定の少ないスパース再構成に適したニューラルネットワークのクラスに対する一般化誤差解析を提案する。
現実的な条件下では、一般化誤差は層数で対数的にしかスケールせず、測定数ではほとんど線形である。
論文 参考訳(メタデータ) (2020-10-29T15:05:43Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。