論文の概要: Penalized deep neural networks estimator with general loss functions
under weak dependence
- arxiv url: http://arxiv.org/abs/2305.06230v1
- Date: Wed, 10 May 2023 15:06:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:34:40.155178
- Title: Penalized deep neural networks estimator with general loss functions
under weak dependence
- Title(参考訳): 弱い依存下での一般損失関数を有するペナルテッド深層ニューラルネットワーク推定器
- Authors: William Kengne and Modou Wade
- Abstract要約: 本稿では、弱い依存過程を学習するために、スパースペン化ディープニューラルネットワーク予測器を実行する。
いくつかのシミュレーション結果が提供され、ヴィットーリア大都市圏の粒子状物質予測への応用も検討されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper carries out sparse-penalized deep neural networks predictors for
learning weakly dependent processes, with a broad class of loss functions. We
deal with a general framework that includes, regression estimation,
classification, times series prediction, $\cdots$ The $\psi$-weak dependence
structure is considered, and for the specific case of bounded observations,
$\theta_\infty$-coefficients are also used. In this case of
$\theta_\infty$-weakly dependent, a non asymptotic generalization bound within
the class of deep neural networks predictors is provided. For learning both
$\psi$ and $\theta_\infty$-weakly dependent processes, oracle inequalities for
the excess risk of the sparse-penalized deep neural networks estimators are
established. When the target function is sufficiently smooth, the convergence
rate of these excess risk is close to $\mathcal{O}(n^{-1/3})$. Some simulation
results are provided, and application to the forecast of the particulate matter
in the Vit\'{o}ria metropolitan area is also considered.
- Abstract(参考訳): 本稿では,弱い依存過程を学習するためのスパルスペン化ディープニューラルネットワーク予測器を,幅広い損失関数のクラスで実施する。
我々は、回帰推定、分類、時系列予測、$\cdots$ で$\psi$-weak の依存構造が考慮される一般的なフレームワークを取り扱うとともに、特定の有界観測の場合、$\theta_\infty$-co efficients も使用される。
この場合の$\theta_\infty$-weaklyDependedでは、ディープニューラルネットワーク予測器のクラス内での非漸近一般化が提供される。
$\psi$ と $\theta_\infty$-weakly依存のプロセスの両方を学ぶために、スパースペナルド深層ニューラルネットワークの過剰なリスクに対するオラクルの不平等が確立される。
対象関数が十分に滑らかであれば、これらの過剰なリスクの収束率は$\mathcal{o}(n^{-1/3})$に近い。
いくつかのシミュレーション結果が提供され,Vit\'{o}ria大都市圏における粒子状物質の予測への応用も検討されている。
関連論文リスト
- Robust deep learning from weakly dependent data [0.0]
本稿では, 弱い依存度を持つ観測結果から, 非有界損失関数と非有界入力/出力を含む頑健な深層学習を考察する。
これらの境界と$r$の関係を導き、データが任意の順序のモーメント(すなわち$r=infty$)を持つとき、収束率はよく知られた結果に近い。
論文 参考訳(メタデータ) (2024-05-08T14:25:40Z) - On Excess Risk Convergence Rates of Neural Network Classifiers [8.329456268842227]
本稿では,ニューラルネットワークを用いた2値分類におけるプラグイン分類器の性能を,その過大なリスクによって測定した。
ニューラルネットワークの推定と近似特性を分析し,次元自由で均一な収束率を求める。
論文 参考訳(メタデータ) (2023-09-26T17:14:10Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Sparse-penalized deep neural networks estimator under weak dependence [0.0]
我々は、$psi$-weakly依存プロセスの非パラメトリック回帰と分類問題を考察する。
スパースディープニューラルネットワークのペナル化推定を行う。
論文 参考訳(メタデータ) (2023-03-02T16:53:51Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Excess risk bound for deep learning under weak dependence [0.0]
本稿では、弱い依存プロセスを学ぶためのディープニューラルネットワークについて考察する。
我々は、任意のH"古いスムーズな関数を近似するために、ディープニューラルネットワークに必要な深さ、幅、間隔を導出する。
論文 参考訳(メタデータ) (2023-02-15T07:23:48Z) - Deep learning for $\psi$-weakly dependent processes [0.0]
私たちは$psi$-weakly依存プロセスを学ぶためにディープニューラルネットワークを実行します。
ディープニューラルネットワーク予測器のクラスにおける経験的リスク最小化アルゴリズムの整合性を確立する。
いくつかのシミュレーション結果が提供され、アメリカの景気後退データにも適用されている。
論文 参考訳(メタデータ) (2023-02-01T09:31:15Z) - Sample Complexity of Nonparametric Off-Policy Evaluation on
Low-Dimensional Manifolds using Deep Networks [71.95722100511627]
深層ニューラルネットワークを用いた強化学習における非政治的評価問題について考察する。
ネットワークサイズを適切に選択することにより、マルコフ決定過程において低次元多様体構造を利用することができることを示す。
論文 参考訳(メタデータ) (2022-06-06T20:25:20Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Why Lottery Ticket Wins? A Theoretical Perspective of Sample Complexity
on Pruned Neural Networks [79.74580058178594]
目的関数の幾何学的構造を解析することにより、刈り取られたニューラルネットワークを訓練する性能を解析する。
本稿では,ニューラルネットワークモデルがプルーニングされるにつれて,一般化が保証された望ましいモデル近傍の凸領域が大きくなることを示す。
論文 参考訳(メタデータ) (2021-10-12T01:11:07Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。