論文の概要: Sparse-penalized deep neural networks estimator under weak dependence
- arxiv url: http://arxiv.org/abs/2303.01406v1
- Date: Thu, 2 Mar 2023 16:53:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 13:25:41.667860
- Title: Sparse-penalized deep neural networks estimator under weak dependence
- Title(参考訳): 弱い依存下でのスパースペナル化深部ニューラルネットワーク推定器
- Authors: William Kengne and Modou Wade
- Abstract要約: 我々は、$psi$-weakly依存プロセスの非パラメトリック回帰と分類問題を考察する。
スパースディープニューラルネットワークのペナル化推定を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the nonparametric regression and the classification problems for
$\psi$-weakly dependent processes. This weak dependence structure is more
general than conditions such as, mixing, association, $\ldots$. A penalized
estimation method for sparse deep neural networks is performed. In both
nonparametric regression and binary classification problems, we establish
oracle inequalities for the excess risk of the sparse-penalized deep neural
networks estimators. Convergence rates of the excess risk of these estimators
are also derived. The simulation results displayed show that, the proposed
estimators overall work well than the non penalized estimators.
- Abstract(参考訳): 我々は,$\psi$-weakly 依存プロセスの非パラメトリック回帰と分類問題を考える。
この弱依存構造は、混合、結合、$\ldots$のような条件よりも一般的である。
スパース深層ニューラルネットワークのペナルティ化推定を行う。
非パラメトリック回帰と二値分類の両問題において、スパースペナル化ディープニューラルネットワーク推定器の過剰リスクに対するオラクルの不等式を確立する。
これらの推定器の過剰なリスクの収束率も導出される。
シミュレーションの結果, 提案した推定器は, 非罰則推定器よりも総合的に有効であることがわかった。
関連論文リスト
- Sup-Norm Convergence of Deep Neural Network Estimator for Nonparametric
Regression by Adversarial Training [5.68558935178946]
ニュートラルニューラルネットワーク推定器の超ノルム収束を,新しい対角トレーニング方式で示す。
深部ニューラルネットワーク推定器は、補正付き対向訓練により、超ノルム感覚の最適率を達成する。
論文 参考訳(メタデータ) (2023-07-08T20:24:14Z) - Penalized deep neural networks estimator with general loss functions
under weak dependence [0.0]
本稿では、弱い依存過程を学習するために、スパースペン化ディープニューラルネットワーク予測器を実行する。
いくつかのシミュレーション結果が提供され、ヴィットーリア大都市圏の粒子状物質予測への応用も検討されている。
論文 参考訳(メタデータ) (2023-05-10T15:06:53Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Deep learning for $\psi$-weakly dependent processes [0.0]
私たちは$psi$-weakly依存プロセスを学ぶためにディープニューラルネットワークを実行します。
ディープニューラルネットワーク予測器のクラスにおける経験的リスク最小化アルゴリズムの整合性を確立する。
いくつかのシミュレーション結果が提供され、アメリカの景気後退データにも適用されている。
論文 参考訳(メタデータ) (2023-02-01T09:31:15Z) - Neural Dependencies Emerging from Learning Massive Categories [94.77992221690742]
この研究は、大規模画像分類のために学んだニューラルネットワークに関する2つの驚くべき発見を示す。
1) 十分に訓練されたモデルが与えられた場合、いくつかのカテゴリで予測されたロジットは、他のいくつかのカテゴリの予測を線形に組み合わせることで直接得ることができる。
2) 神経依存は1つのモデルに留まらず、2つの独立した学習モデルの間にさえ存在する。
論文 参考訳(メタデータ) (2022-11-21T09:42:15Z) - Estimation of Non-Crossing Quantile Regression Process with Deep ReQU
Neural Networks [5.5272015676880795]
本稿では,2次単位(ReQU)活性化深層ニューラルネットワークを用いた非分離モデルにおいて,QRP(quantile regression process)を推定するペナル化非パラメトリック手法を提案する。
推定されたQRPに対する非漸近的過剰リスク境界を確立し、軽度な滑らかさと規則性条件下で推定されたQRPに対する平均2乗誤差を導出する。
論文 参考訳(メタデータ) (2022-07-21T12:26:45Z) - Sample Complexity of Nonparametric Off-Policy Evaluation on
Low-Dimensional Manifolds using Deep Networks [71.95722100511627]
深層ニューラルネットワークを用いた強化学習における非政治的評価問題について考察する。
ネットワークサイズを適切に選択することにより、マルコフ決定過程において低次元多様体構造を利用することができることを示す。
論文 参考訳(メタデータ) (2022-06-06T20:25:20Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Dimensionality reduction, regularization, and generalization in
overparameterized regressions [8.615625517708324]
主成分回帰(主成分回帰)としても知られるPCA-OLSは次元の減少によって回避できることを示す。
OLSは任意に敵の攻撃を受けやすいが,次元性低下はロバスト性を向上させることを示す。
その結果,プロジェクションがトレーニングデータに依存する手法は,トレーニングデータとは独立にプロジェクションが選択される手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-11-23T15:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。