論文の概要: Estimation of Non-Crossing Quantile Regression Process with Deep ReQU
Neural Networks
- arxiv url: http://arxiv.org/abs/2207.10442v1
- Date: Thu, 21 Jul 2022 12:26:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:25:48.916519
- Title: Estimation of Non-Crossing Quantile Regression Process with Deep ReQU
Neural Networks
- Title(参考訳): 深部ReQUニューラルネットワークを用いた非閉塞量子回帰過程の推定
- Authors: Guohao Shen, Yuling Jiao, Yuanyuan Lin, Joel L. Horowitz and Jian
Huang
- Abstract要約: 本稿では,2次単位(ReQU)活性化深層ニューラルネットワークを用いた非分離モデルにおいて,QRP(quantile regression process)を推定するペナル化非パラメトリック手法を提案する。
推定されたQRPに対する非漸近的過剰リスク境界を確立し、軽度な滑らかさと規則性条件下で推定されたQRPに対する平均2乗誤差を導出する。
- 参考スコア(独自算出の注目度): 5.5272015676880795
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a penalized nonparametric approach to estimating the quantile
regression process (QRP) in a nonseparable model using rectifier quadratic unit
(ReQU) activated deep neural networks and introduce a novel penalty function to
enforce non-crossing of quantile regression curves. We establish the
non-asymptotic excess risk bounds for the estimated QRP and derive the mean
integrated squared error for the estimated QRP under mild smoothness and
regularity conditions. To establish these non-asymptotic risk and estimation
error bounds, we also develop a new error bound for approximating $C^s$ smooth
functions with $s >0$ and their derivatives using ReQU activated neural
networks. This is a new approximation result for ReQU networks and is of
independent interest and may be useful in other problems. Our numerical
experiments demonstrate that the proposed method is competitive with or
outperforms two existing methods, including methods using reproducing kernels
and random forests, for nonparametric quantile regression.
- Abstract(参考訳): 本稿では, 量子レグレッション曲線の非交差を強制する新たなペナルティ関数を導入し, 整流器2次単位(ReQU)活性化ディープニューラルネットワークを用いた非分離モデルにおいて, 量子レグレッション過程(QRP)を推定するペナルティ非パラメトリック手法を提案する。
推定qrpの非漸近的過大リスク境界を定め,軽度な平滑さと正則性条件下で推定qrpの平均積分二乗誤差を導出する。
これらの非漸近的リスクと推定誤差の境界を確立するために、s > 0$ で $c^s$ の滑らかな関数とその導関数をrequ で活性化したニューラルネットワークを用いて近似する新しい誤差境界を開発した。
これはReQUネットワークの新たな近似結果であり、独立した関心を持ち、他の問題に有用かもしれない。
数値実験により,提案手法は,非パラメトリック量子量的回帰のためのカーネルとランダムフォレストを再生する手法を含む,既存の2つの手法に匹敵する。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Echoes of Socratic Doubt: Embracing Uncertainty in Calibrated Evidential Reinforcement Learning [1.7898305876314982]
提案アルゴリズムは,共形推論の原理に基づいて,深い明解学習と量子キャリブレーションを組み合わせる。
ミニチュア化されたアタリゲームスイート(MinAtar)でテストされる。
論文 参考訳(メタデータ) (2024-02-11T05:17:56Z) - Model-Based Epistemic Variance of Values for Risk-Aware Policy
Optimization [63.32053223422317]
モデルベース強化学習における累積報酬に対する不確実性を定量化する問題を考察する。
特に、MDP上の分布によって誘導される値の分散を特徴付けることに焦点をあてる。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式(UBE)を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:55:58Z) - Sparse-penalized deep neural networks estimator under weak dependence [0.0]
我々は、$psi$-weakly依存プロセスの非パラメトリック回帰と分類問題を考察する。
スパースディープニューラルネットワークのペナル化推定を行う。
論文 参考訳(メタデータ) (2023-03-02T16:53:51Z) - Sample Complexity of Nonparametric Off-Policy Evaluation on
Low-Dimensional Manifolds using Deep Networks [71.95722100511627]
深層ニューラルネットワークを用いた強化学習における非政治的評価問題について考察する。
ネットワークサイズを適切に選択することにより、マルコフ決定過程において低次元多様体構造を利用することができることを示す。
論文 参考訳(メタデータ) (2022-06-06T20:25:20Z) - DeepBayes -- an estimator for parameter estimation in stochastic
nonlinear dynamical models [11.917949887615567]
本研究では,DeepBayes推定器を提案する。
ディープリカレントニューラルネットワークアーキテクチャはオフラインでトレーニングでき、推論中にかなりの時間を節約できる。
提案手法の異なる実例モデルへの適用性を実証し, 最先端手法との詳細な比較を行う。
論文 参考訳(メタデータ) (2022-05-04T18:12:17Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Measurement error models: from nonparametric methods to deep neural
networks [3.1798318618973362]
本稿では,測定誤差モデルの推定に有効なニューラルネットワーク設計を提案する。
完全に接続されたフィードフォワードニューラルネットワークを用いて回帰関数を$f(x)$に近似する。
我々は、ニューラルネットワークアプローチと古典的ノンパラメトリック手法を比較するために、広範囲にわたる数値的研究を行っている。
論文 参考訳(メタデータ) (2020-07-15T06:05:37Z) - Nonconvex sparse regularization for deep neural networks and its
optimality [1.9798034349981162]
ディープニューラルネットワーク(DNN)推定器は、回帰と分類問題に対して最適な収束率を得ることができる。
スパースDNNに対する新たなペナル化推定法を提案する。
スパースペンタライズされた推定器は、様々な非パラメトリック回帰問題に対する最小収束率を適応的に達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T07:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。