論文の概要: Deep learning for $\psi$-weakly dependent processes
- arxiv url: http://arxiv.org/abs/2302.00333v1
- Date: Wed, 1 Feb 2023 09:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:16:35.967927
- Title: Deep learning for $\psi$-weakly dependent processes
- Title(参考訳): $\psi$-weakly依存プロセスのためのディープラーニング
- Authors: William Kengne, Wade Modou
- Abstract要約: 私たちは$psi$-weakly依存プロセスを学ぶためにディープニューラルネットワークを実行します。
ディープニューラルネットワーク予測器のクラスにおける経験的リスク最小化アルゴリズムの整合性を確立する。
いくつかのシミュレーション結果が提供され、アメリカの景気後退データにも適用されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we perform deep neural networks for learning $\psi$-weakly
dependent processes. Such weak-dependence property includes a class of weak
dependence conditions such as mixing, association,$\cdots$ and the setting
considered here covers many commonly used situations such as: regression
estimation, time series prediction, time series classification,$\cdots$ The
consistency of the empirical risk minimization algorithm in the class of deep
neural networks predictors is established. We achieve the generalization bound
and obtain a learning rate, which is less than $\mathcal{O}(n^{-1/\alpha})$,
for all $\alpha > 2 $. Applications to binary time series classification and
prediction in affine causal models with exogenous covariates are carried out.
Some simulation results are provided, as well as an application to the US
recession data.
- Abstract(参考訳): 本稿では,深層ニューラルネットワークを用いて$\psi$-weakly依存プロセスの学習を行う。
このような弱依存性特性には、混合、アソシエーション、$\cdots$などの弱い依存条件のクラスが含まれており、ここで考慮される設定は、回帰推定、時系列予測、時系列分類、$\cdots$ 深層ニューラルネットワーク予測器のクラスにおける経験的リスク最小化アルゴリズムの整合性など、よく使われる多くの状況をカバーする。
一般化を達成し、すべての$\alpha > 2 $ に対して $\mathcal{O}(n^{-1/\alpha})$ 未満の学習率を得る。
共変量を持つアフィン因果モデルにおけるバイナリ時系列分類と予測への応用について述べる。
いくつかのシミュレーション結果と米国景気後退データへの適用が提供される。
関連論文リスト
- Agnostic Smoothed Online Learning [5.167069404528051]
本稿では,$mu$の事前知識を必要とせずに,オンライン学習を円滑に行うためのサブ線形後悔を保証するアルゴリズムを提案する。
R-Coverは、次元$d$を持つ関数クラスに対して、適応的後悔$tilde O(sqrtdT/sigma)$を持つ。
論文 参考訳(メタデータ) (2024-10-07T15:25:21Z) - Penalized deep neural networks estimator with general loss functions
under weak dependence [0.0]
本稿では、弱い依存過程を学習するために、スパースペン化ディープニューラルネットワーク予測器を実行する。
いくつかのシミュレーション結果が提供され、ヴィットーリア大都市圏の粒子状物質予測への応用も検討されている。
論文 参考訳(メタデータ) (2023-05-10T15:06:53Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Sparse-penalized deep neural networks estimator under weak dependence [0.0]
我々は、$psi$-weakly依存プロセスの非パラメトリック回帰と分類問題を考察する。
スパースディープニューラルネットワークのペナル化推定を行う。
論文 参考訳(メタデータ) (2023-03-02T16:53:51Z) - Excess risk bound for deep learning under weak dependence [0.0]
本稿では、弱い依存プロセスを学ぶためのディープニューラルネットワークについて考察する。
我々は、任意のH"古いスムーズな関数を近似するために、ディープニューラルネットワークに必要な深さ、幅、間隔を導出する。
論文 参考訳(メタデータ) (2023-02-15T07:23:48Z) - Neural Dependencies Emerging from Learning Massive Categories [94.77992221690742]
この研究は、大規模画像分類のために学んだニューラルネットワークに関する2つの驚くべき発見を示す。
1) 十分に訓練されたモデルが与えられた場合、いくつかのカテゴリで予測されたロジットは、他のいくつかのカテゴリの予測を線形に組み合わせることで直接得ることができる。
2) 神経依存は1つのモデルに留まらず、2つの独立した学習モデルの間にさえ存在する。
論文 参考訳(メタデータ) (2022-11-21T09:42:15Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Locality defeats the curse of dimensionality in convolutional
teacher-student scenarios [69.2027612631023]
学習曲線指数$beta$を決定する上で,局所性が重要であることを示す。
我々は、自然の仮定を用いて、トレーニングセットのサイズに応じて減少するリッジでカーネルレグレッションを実行すると、リッジレスの場合と同じような学習曲線指数が得られることを証明して結論付けた。
論文 参考訳(メタデータ) (2021-06-16T08:27:31Z) - Understanding the Under-Coverage Bias in Uncertainty Estimation [58.03725169462616]
量子レグレッションは、現実の望ましいカバレッジレベルよりもアンファンダーカバー(enmphunder-cover)する傾向がある。
我々は、量子レグレッションが固有のアンダーカバーバイアスに悩まされていることを証明している。
我々の理論は、この過大被覆バイアスが特定の高次元パラメータ推定誤差に起因することを明らかにしている。
論文 参考訳(メタデータ) (2021-06-10T06:11:55Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。