論文の概要: Densely connected neural networks for nonlinear regression
- arxiv url: http://arxiv.org/abs/2108.00864v1
- Date: Thu, 29 Jul 2021 03:41:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 14:53:30.505857
- Title: Densely connected neural networks for nonlinear regression
- Title(参考訳): 非線形回帰のための高密度結合ニューラルネットワーク
- Authors: Chao Jiang, Canchen Jiang, Dongwei Chen, Fei Hu
- Abstract要約: 本稿では,畳み込み層とプール層を完全連結層に置き換えた新しいDenseNet回帰モデルを提案する。
結果は最適な深さ(19)を与え、限られた入力次元(200以下)を推奨する。
最終的に、DenseNet回帰は相対湿度を予測するために適用され、その結果は観測と高い相関(0.91)を示す。
- 参考スコア(独自算出の注目度): 8.830042935753303
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Densely connected convolutional networks (DenseNet) behave well in image
processing. However, for regression tasks, convolutional DenseNet may lose
essential information from independent input features. To tackle this issue, we
propose a novel DenseNet regression model where convolution and pooling layers
are replaced by fully connected layers and the original concatenation shortcuts
are maintained to reuse the feature. To investigate the effects of depth and
input dimension of proposed model, careful validations are performed by
extensive numerical simulation. The results give an optimal depth (19) and
recommend a limited input dimension (under 200). Furthermore, compared with the
baseline models including support vector regression, decision tree regression,
and residual regression, our proposed model with the optimal depth performs
best. Ultimately, DenseNet regression is applied to predict relative humidity,
and the outcome shows a high correlation (0.91) with observations, which
indicates that our model could advance environmental data analysis.
- Abstract(参考訳): 複雑な連結畳み込みネットワーク(DenseNet)は画像処理において良好に動作する。
しかし、回帰タスクでは、畳み込みDenseNetは独立した入力機能から重要な情報を失う可能性がある。
そこで本研究では, 畳み込みとプーリング層を完全連結層に置き換え, 元の連結近道を維持して機能を再利用する, 新たな密集型回帰モデルを提案する。
提案モデルの深さと入力寸法の影響を調べるために,広範囲な数値シミュレーションにより注意深い検証を行う。
結果は最適な深さ(19)を与え、限られた入力次元(200以下)を推奨する。
さらに,支援ベクトル回帰,決定木回帰,残差回帰を含むベースラインモデルと比較して,最適深さのモデルが最適である。
最終的に、密度ネット回帰は相対湿度の予測に応用され、結果は観測と高い相関(0.91)を示し、このモデルが環境データ解析を前進させる可能性を示唆する。
関連論文リスト
- An Efficient Approach to Regression Problems with Tensor Neural Networks [5.345144592056051]
本稿では、非パラメトリック回帰問題に対処するテンソルニューラルネットワーク(TNN)を提案する。
TNNは従来のFeed-Forward Networks (FFN) や Radial Basis Function Networks (RBN) よりも優れた性能を示している。
このアプローチにおける重要な革新は、統計回帰とTNNフレームワーク内の数値積分の統合である。
論文 参考訳(メタデータ) (2024-06-14T03:38:40Z) - Adaptive Optimization for Prediction with Missing Data [6.800113478497425]
適応線形回帰モデルの中には,命令規則と下流線形回帰モデルを同時に学習するのと等価なものもある。
ランダムにデータの欠落が強くない環境では,本手法はサンプル外精度を2~10%向上させる。
論文 参考訳(メタデータ) (2024-02-02T16:35:51Z) - Semi-Supervised Deep Sobolev Regression: Estimation, Variable Selection
and Beyond [3.782392436834913]
本研究では,半教師付き深部ソボレフ回帰器であるSDOREを提案し,基礎となる回帰関数とその勾配を非パラメトリックに推定する。
我々は、SDOREの収束率を総合的に分析し、回帰関数の最小値の最適値を確立する。
また、重要なドメインシフトが存在する場合でも、関連するプラグイン勾配推定器の収束率を導出する。
論文 参考訳(メタデータ) (2024-01-09T13:10:30Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Recursive Contour Saliency Blending Network for Accurate Salient Object
Detection [0.0]
本研究では,有能な物体検出におけるエッジ品質向上のためのネットワークを設計した。
輪郭と塩分を交換するための輪郭・塩分混合モジュールを提案した。
我々のモデルは軽量で高速で、パラメータはわずか279万、リアルタイム推論は31FPSである。
論文 参考訳(メタデータ) (2021-05-28T14:19:54Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。