論文の概要: A Subsampling Based Neural Network for Spatial Data
- arxiv url: http://arxiv.org/abs/2411.03620v1
- Date: Wed, 06 Nov 2024 02:37:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:24:37.024671
- Title: A Subsampling Based Neural Network for Spatial Data
- Title(参考訳): サブサンプリングに基づく空間データのためのニューラルネットワーク
- Authors: Debjoy Thakur,
- Abstract要約: 本稿では、空間データに対する一貫した局所化された2層ディープニューラルネットワークに基づく回帰を提案する。
観測されたデータと予測されたデータの経験的確率分布の差分尺度の収束率を実験的に観察し、より滑らかな空間表面ではより高速になる。
この応用は非線形空間回帰の効果的な例である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The application of deep neural networks in geospatial data has become a trending research problem in the present day. A significant amount of statistical research has already been introduced, such as generalized least square optimization by incorporating spatial variance-covariance matrix, considering basis functions in the input nodes of the neural networks, and so on. However, for lattice data, there is no available literature about the utilization of asymptotic analysis of neural networks in regression for spatial data. This article proposes a consistent localized two-layer deep neural network-based regression for spatial data. We have proved the consistency of this deep neural network for bounded and unbounded spatial domains under a fixed sampling design of mixed-increasing spatial regions. We have proved that its asymptotic convergence rate is faster than that of \cite{zhan2024neural}'s neural network and an improved generalization of \cite{shen2023asymptotic}'s neural network structure. We empirically observe the rate of convergence of discrepancy measures between the empirical probability distribution of observed and predicted data, which will become faster for a less smooth spatial surface. We have applied our asymptotic analysis of deep neural networks to the estimation of the monthly average temperature of major cities in the USA from its satellite image. This application is an effective showcase of non-linear spatial regression. We demonstrate our methodology with simulated lattice data in various scenarios.
- Abstract(参考訳): 地理空間データへのディープニューラルネットワークの適用は、現在、トレンド研究問題となっている。
空間分散共分散行列を組み込んだ一般化最小二乗最適化や、ニューラルネットワークの入力ノードの基底関数を考慮した統計学など、多くの統計研究がすでに導入されている。
しかし、格子データについては、空間データに対する回帰におけるニューラルネットワークの漸近解析の利用に関する文献は存在しない。
本稿では、空間データに対する一貫した局所化された2層ディープニューラルネットワークに基づく回帰を提案する。
我々は、混合増加空間領域の固定サンプリング設計の下で、有界領域と非有界領域に対するこのディープニューラルネットワークの整合性を証明した。
我々は、その漸近収束速度が \cite{zhan2024neural} のニューラルネットワークよりも高速であること、および \cite{shen2023asymptotic} のニューラルネットワーク構造を改良したことを証明した。
観測されたデータと予測されたデータの経験的確率分布の差分尺度の収束率を実験的に観察し、より滑らかな空間表面ではより高速になる。
我々は,米国の主要都市の月平均気温を衛星画像から推定するために,ディープニューラルネットワークの漸近解析を適用した。
この応用は非線形空間回帰の効果的な例である。
様々なシナリオにおける格子データのシミュレーションにより,本手法を実証する。
関連論文リスト
- Stochastic Gradient Descent for Two-layer Neural Networks [2.0349026069285423]
本稿では、過パラメータ化された2層ニューラルネットワークに適用した場合の降下(SGD)アルゴリズムの収束率について検討する。
提案手法は,NTKのタンジェントカーネル(NTK)近似と,NTKが生成する再生カーネル空間(RKHS)の収束解析を組み合わせたものである。
我々の研究フレームワークは、カーネルメソッドと最適化プロセスの間の複雑な相互作用を探索し、ニューラルネットワークのダイナミクスと収束特性に光を当てることを可能にする。
論文 参考訳(メタデータ) (2024-07-10T13:58:57Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Neural networks for geospatial data [0.0]
NN-GLSは、GPモデルの非線形平均に対する新しいニューラルネットワーク推定アルゴリズムである。
NN-GLSはグラフニューラルネットワーク(GNN)の特殊型として表現されていることを示す。
理論的には、NN-GLSは不規則に観測された空間相関データプロセスに一貫性があることが示されている。
論文 参考訳(メタデータ) (2023-04-18T17:52:23Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Mean-Field Analysis of Two-Layer Neural Networks: Global Optimality with
Linear Convergence Rates [7.094295642076582]
平均場体制はNTK(lazy training)体制の理論的に魅力的な代替手段である。
平均場状態における連続ノイズ降下により訓練された2層ニューラルネットワークに対する線形収束結果を確立した。
論文 参考訳(メタデータ) (2022-05-19T21:05:40Z) - A Local Geometric Interpretation of Feature Extraction in Deep
Feedforward Neural Networks [13.159994710917022]
本稿では, 深部フィードフォワードニューラルネットワークが高次元データから低次元特徴をいかに抽出するかを理解するための局所幾何学的解析法を提案する。
本研究は, 局所幾何学領域において, ニューラルネットワークの一層における最適重みと前層の最適特徴が, この層のベイズ作用によって決定される行列の低ランク近似を構成することを示す。
論文 参考訳(メタデータ) (2022-02-09T18:50:00Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。