論文の概要: Some Results on Neural Network Stability, Consistency, and Convergence: Insights into Non-IID Data, High-Dimensional Settings, and Physics-Informed Neural Networks
- arxiv url: http://arxiv.org/abs/2409.05030v1
- Date: Sun, 8 Sep 2024 08:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 19:30:04.124502
- Title: Some Results on Neural Network Stability, Consistency, and Convergence: Insights into Non-IID Data, High-Dimensional Settings, and Physics-Informed Neural Networks
- Title(参考訳): ニューラルネットワークの安定性,一貫性,収束性に関するいくつかの結果:非IIDデータ,高次元設定,物理インフォームドニューラルネットワークの考察
- Authors: Ronald Katende, Henry Kasumba, Godwin Kakuba, John M. Mango,
- Abstract要約: 本稿では,機械学習における重要な課題,特に非IIDデータ分散条件下での課題について述べる。
我々は、動的学習率の均一な安定性ネットワークに関する結果を提供する。
これらの結果は,ノイズの多い環境下でのモデル行動の理解において,大きなギャップを埋める。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses critical challenges in machine learning, particularly the stability, consistency, and convergence of neural networks under non-IID data, distribution shifts, and high-dimensional settings. We provide new theoretical results on uniform stability for neural networks with dynamic learning rates in non-convex settings. Further, we establish consistency bounds for federated learning models in non-Euclidean spaces, accounting for distribution shifts and curvature effects. For Physics-Informed Neural Networks (PINNs), we derive stability, consistency, and convergence guarantees for solving Partial Differential Equations (PDEs) in noisy environments. These results fill significant gaps in understanding model behavior in complex, non-ideal conditions, paving the way for more robust and reliable machine learning applications.
- Abstract(参考訳): 本稿では,機械学習における重要な課題,特に非IIDデータに基づくニューラルネットワークの安定性,一貫性,収束性,分布シフト,高次元設定について論じる。
非凸条件下での動的学習率を持つニューラルネットワークの均一安定性に関する新しい理論的結果を提供する。
さらに,非ユークリッド空間におけるフェデレート学習モデルの整合性境界を確立し,分布シフトと曲率効果を考慮に入れた。
物理インフォームドニューラルネットワーク(PINN)では、雑音環境下での部分微分方程式(PDE)を解くための安定性、一貫性、収束保証を導出する。
これらの結果は、複雑で非理想的な条件下でのモデル行動理解において大きなギャップを埋め、より堅牢で信頼性の高い機械学習アプリケーションへの道を開く。
関連論文リスト
- Adversarial Learning for Neural PDE Solvers with Sparse Data [4.226449585713182]
本研究では,ロバストトレーニングのためのシステムモデル拡張(Systematic Model Augmentation for Robust Training)という,ニューラルネットワークPDEの普遍的学習戦略を紹介する。
モデルの弱点に挑戦し改善することに集中することにより、SMARTはデータスカース条件下でのトレーニング中の一般化エラーを低減する。
論文 参考訳(メタデータ) (2024-09-04T04:18:25Z) - Stable Weight Updating: A Key to Reliable PDE Solutions Using Deep Learning [0.0]
本稿では,物理インフォームドニューラルネットワーク(PINN)の安定性と精度の向上を目的とした,新しい残差ベースアーキテクチャを提案する。
このアーキテクチャは、残りの接続を組み込むことで従来のニューラルネットワークを強化し、よりスムーズなウェイト更新を可能にし、バックプロパゲーション効率を向上させる。
特にSquared Residual Networkは、従来のニューラルネットワークと比較して安定性と精度の向上を実現し、堅牢なパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-07-10T05:20:43Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Multi-fidelity physics constrained neural networks for dynamical systems [16.6396704642848]
マルチスケール物理制約ニューラルネットワーク(MSPCNN)を提案する。
MSPCNNは、異なるレベルの忠実度を持つデータを統一された潜在空間に組み込む新しい手法を提供する。
従来の手法とは異なり、MSPCNNは予測モデルをトレーニングするために複数の忠実度データを使用する。
論文 参考訳(メタデータ) (2024-02-03T05:05:26Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Physics-aware deep learning framework for linear elasticity [0.0]
本稿では,線形連続弾性問題に対する効率的で堅牢なデータ駆動型ディープラーニング(DL)計算フレームワークを提案する。
フィールド変数の正確な表現のために,多目的損失関数を提案する。
弾性に対するAirimaty解やKirchhoff-Loveプレート問題を含むいくつかのベンチマーク問題を解く。
論文 参考訳(メタデータ) (2023-02-19T20:33:32Z) - Tunable Complexity Benchmarks for Evaluating Physics-Informed Neural
Networks on Coupled Ordinary Differential Equations [64.78260098263489]
本研究では,より複雑に結合した常微分方程式(ODE)を解く物理インフォームドニューラルネットワーク(PINN)の能力を評価する。
PINNの複雑性が増大するにつれて,これらのベンチマークに対する正しい解が得られないことが示される。
PINN損失のラプラシアンは,ネットワーク容量の不足,ODEの条件の低下,局所曲率の高さなど,いくつかの理由を明らかにした。
論文 参考訳(メタデータ) (2022-10-14T15:01:32Z) - Neural Operator with Regularity Structure for Modeling Dynamics Driven
by SPDEs [70.51212431290611]
偏微分方程式 (SPDE) は、大気科学や物理学を含む多くの分野において、力学をモデル化するための重要なツールである。
本研究では,SPDEによって駆動されるダイナミクスをモデル化するための特徴ベクトルを組み込んだニューラル演算子(NORS)を提案する。
動的Phi41モデルと2d Navier-Stokes方程式を含む様々なSPDE実験を行った。
論文 参考訳(メタデータ) (2022-04-13T08:53:41Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - DAE-PINN: A Physics-Informed Neural Network Model for Simulating
Differential-Algebraic Equations with Application to Power Networks [8.66798555194688]
DAE-PINNは非線形微分代数方程式の解軌跡を学習し、シミュレーションするための最初の効果的なディープラーニングフレームワークである。
我々のフレームワークは、ペナルティベースの手法を用いて、DAEを(近似的に)厳しい制約として満たすためにニューラルネットワークを強制する。
DAE-PINNの有効性と精度を3バス電力ネットワークの解軌跡を学習・シミュレーションすることで示す。
論文 参考訳(メタデータ) (2021-09-09T14:30:28Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。