論文の概要: Consistency of Extreme Learning Machines and Regression under
Non-Stationarity and Dependence for ML-Enhanced Moving Objects
- arxiv url: http://arxiv.org/abs/2005.11115v4
- Date: Wed, 1 Sep 2021 10:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 08:49:42.114905
- Title: Consistency of Extreme Learning Machines and Regression under
Non-Stationarity and Dependence for ML-Enhanced Moving Objects
- Title(参考訳): ML強化移動物体の非定常性と依存性を考慮した極端学習機械の整合性と回帰
- Authors: Ansgar Steland
- Abstract要約: ランダムな重みを持つ極端学習機械による教師付き学習は、非定常時間サンプリング設計の下で研究される。
その結果,最小二乗およびリッジ回帰推定値の整合性と正規性,および $ell_s$-penalty の整合性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised learning by extreme learning machines resp. neural networks with
random weights is studied under a non-stationary spatial-temporal sampling
design which especially addresses settings where an autonomous object moving in
a non-stationary spatial environment collects and analyzes data. The stochastic
model especially allows for spatial heterogeneity and weak dependence. As
efficient and computationally cheap learning methods (unconstrained) least
squares, ridge regression and $\ell_s$-penalized least squares (including the
LASSO) are studied. Consistency and asymptotic normality of the least squares
and ridge regression estimates as well as corresponding consistency results for
the $\ell_s$-penalty are shown under weak conditions. The results also cover
bounds for the sample squared predicition error.
- Abstract(参考訳): 極端な学習機械による教師付き学習。
ランダムな重みを持つニューラルネットワークを非定常空間-時空間サンプリング設計に基づいて研究し、特に非定常空間環境内を移動する自律オブジェクトがデータの収集と解析を行うような設定を扱う。
確率モデルは特に空間的不均一性と弱い依存を許容する。
効率的で計算的に安価な最小二乗学習法(制約なし)として、リッジ回帰と$\ell_s$-penalized最小二乗(LASSOを含む)が研究されている。
最小二乗とリッジ回帰推定の一貫性と漸近的正規性、および対応する$\ell_s$-penaltyの整合性結果が弱い条件下で示される。
結果は、サンプルの2乗述語誤差の境界もカバーしている。
関連論文リスト
- Typical and atypical solutions in non-convex neural networks with
discrete and continuous weights [2.7127628066830414]
ランダムな規則や関連を学習する単純な非拘束型ネットワークモデルとして、二項および連続負マージンパーセプトロンについて検討する。
どちらのモデルも、非常に平坦で幅の広い劣支配的な最小化器を示す。
両モデルにおいて、学習装置としての一般化性能は、広い平坦な最小化器の存在により大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-04-26T23:34:40Z) - Structured Optimal Variational Inference for Dynamic Latent Space Models [16.531262817315696]
動的ネットワークの潜在空間モデルについて検討し、その目的は、ペアの内積と潜在位置のインターセプトを推定することである。
後部推論と計算スケーラビリティのバランスをとるために、構造的平均場変動推論フレームワークを検討する。
論文 参考訳(メタデータ) (2022-09-29T22:10:42Z) - Instability and Local Minima in GAN Training with Kernel Discriminators [20.362912591032636]
GAN(Generative Adversarial Networks)は、複雑なデータの生成モデリングに広く使われているツールである。
実験的な成功にもかかわらず、ジェネレータと判別器のmin-max最適化のため、GANの訓練は十分には理解されていない。
本稿では、真のサンプルと生成されたサンプルが離散有限集合であり、判別器がカーネルベースである場合に、これらの関節力学を解析する。
論文 参考訳(メタデータ) (2022-08-21T18:03:06Z) - Improving Generalization via Uncertainty Driven Perturbations [107.45752065285821]
トレーニングデータポイントの不確実性による摂動について考察する。
損失駆動摂動とは異なり、不確実性誘導摂動は決定境界を越えてはならない。
線形モデルにおいて,UDPがロバスト性マージン決定を達成することが保証されていることを示す。
論文 参考訳(メタデータ) (2022-02-11T16:22:08Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Spatially and Robustly Hybrid Mixture Regression Model for Inference of
Spatial Dependence [15.988679065054498]
本研究では,空間領域上での応答変数と説明変数の集合との関係を検討するために,空間ロバスト混合回帰モデルを提案する。
本手法は, 空間的非定常性, 局所的均一性, 外れ値の同時処理を行うために, 空間的制約を伴う頑健な有限混合ガウス回帰モデルを統合する。
多くの合成および実世界のデータセットに対する実験結果から,提案手法のロバスト性,精度,有効性が確認された。
論文 参考訳(メタデータ) (2021-09-01T16:29:46Z) - Sparse Generalized Yule-Walker Estimation for Large Spatio-temporal
Autoregressions with an Application to NO2 Satellite Data [0.0]
高次元モデルのクラスをスパース推定する。
我々は,ユル=ヴァルカー方程式の集合をペナルティ化することにより,空間的および時間的依存を完全駆動的に支配する関係を推定する。
衛星シミュレーションは、競合する手順と比較して強い有限サンプル性能を示す。
論文 参考訳(メタデータ) (2021-08-05T21:51:45Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。