論文の概要: Optimal Linear Baseline Models for Scientific Machine Learning
- arxiv url: http://arxiv.org/abs/2508.05831v1
- Date: Thu, 07 Aug 2025 20:17:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.001202
- Title: Optimal Linear Baseline Models for Scientific Machine Learning
- Title(参考訳): 科学機械学習のための最適線形ベースラインモデル
- Authors: Alexander DeLise, Kyle Loh, Krish Patel, Meredith Teague, Andrea Arnold, Matthias Chung,
- Abstract要約: 我々は線形エンコーダ・デコーダアーキテクチャを解析するための統一的理論フレームワークを開発した。
我々は、フォワードモデリングと逆リカバリタスクのための閉形式、階数制約付き線形最適写像を導出する。
この研究は、科学的機械学習問題に対する学習ニューラルネットワークモデルの理解とベンチマークのための堅牢なベースラインを提供する。
- 参考スコア(独自算出の注目度): 37.69303106863453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Across scientific domains, a fundamental challenge is to characterize and compute the mappings from underlying physical processes to observed signals and measurements. While nonlinear neural networks have achieved considerable success, they remain theoretically opaque, which hinders adoption in contexts where interpretability is paramount. In contrast, linear neural networks serve as a simple yet effective foundation for gaining insight into these complex relationships. In this work, we develop a unified theoretical framework for analyzing linear encoder-decoder architectures through the lens of Bayes risk minimization for solving data-driven scientific machine learning problems. We derive closed-form, rank-constrained linear and affine linear optimal mappings for forward modeling and inverse recovery tasks. Our results generalize existing formulations by accommodating rank-deficiencies in data, forward operators, and measurement processes. We validate our theoretical results by conducting numerical experiments on datasets from simple biomedical imaging, financial factor analysis, and simulations involving nonlinear fluid dynamics via the shallow water equations. This work provides a robust baseline for understanding and benchmarking learned neural network models for scientific machine learning problems.
- Abstract(参考訳): 科学的領域全体において、基本的な課題は、基礎となる物理過程から観測された信号や測定へのマッピングを特徴づけ、計算することである。
非線形ニューラルネットワークはかなり成功したが、理論上は不透明であり、解釈可能性が最も高い文脈での採用を妨げる。
対照的に、線形ニューラルネットワークは、これらの複雑な関係を理解するための、単純だが効果的な基礎となっている。
本研究では,ベイズリスク最小化のレンズを用いて線形エンコーダ・デコーダアーキテクチャを解析し,データ駆動型科学機械学習問題を解決するための統一理論フレームワークを開発する。
我々は、フォワードモデリングと逆リカバリタスクのための閉形式、階数制約付き線形およびアフィン線形最適写像を導出する。
本結果は,データ,フォワード演算子,測定プロセスのランク欠陥を調節することで,既存の定式化を一般化する。
本研究は, 生物医学的イメージング, 財務要因分析, および浅水式による非線形流体力学に関するシミュレーションから, データセットに関する数値実験を行うことにより, 理論的結果を検証した。
この研究は、科学的機械学習問題に対する学習ニューラルネットワークモデルの理解とベンチマークのための堅牢なベースラインを提供する。
関連論文リスト
- Fusing CFD and measurement data using transfer learning [49.1574468325115]
本稿では,伝送学習によるシミュレーションと計測データを組み合わせたニューラルネットワークに基づく非線形手法を提案する。
最初のステップでは、ニューラルネットワークがシミュレーションデータに基づいてトレーニングされ、分散量の空間的特徴を学習する。
第2のステップは、ニューラルネットワークモデル全体の小さなサブセットを再トレーニングするだけで、シミュレーションと測定の間の体系的なエラーを修正するために、測定データ上での変換学習である。
論文 参考訳(メタデータ) (2025-07-28T07:21:46Z) - Multiscale Analysis of Woven Composites Using Hierarchical Physically Recurrent Neural Networks [0.0]
織物複合材料のマルチスケール均質化には, 詳細なミクロメカニカル評価が必要である。
本研究では,2段階の代理モデルを用いた階層型物理リカレントニューラルネットワーク(HPRNN)を提案する。
論文 参考訳(メタデータ) (2025-03-06T19:02:32Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Understanding Multi-phase Optimization Dynamics and Rich Nonlinear
Behaviors of ReLU Networks [8.180184504355571]
線形可分データに基づく勾配流による2層ReLUネットワークの学習過程の理論的評価を行う。
学習過程全体から4つの段階が明らかになり,学習の簡略化と複雑化の傾向が示された。
特定の非線形挙動は、初期、サドルプラトー力学、凝縮エスケープ、複雑化に伴う活性化パターンの変化など、理論的に正確に識別することもできる。
論文 参考訳(メタデータ) (2023-05-21T14:08:34Z) - Persistence-based operators in machine learning [62.997667081978825]
永続性に基づくニューラルネットワークレイヤのクラスを導入します。
永続化ベースのレイヤにより、ユーザは、データによって尊重される対称性に関する知識を容易に注入でき、学習可能なウェイトを備え、最先端のニューラルネットワークアーキテクチャで構成できる。
論文 参考訳(メタデータ) (2022-12-28T18:03:41Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。