論文の概要: Towards Understanding the Benefits of Neural Network Parameterizations in Geophysical Inversions: A Study With Neural Fields
- arxiv url: http://arxiv.org/abs/2503.17503v1
- Date: Fri, 21 Mar 2025 19:32:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:37:45.045599
- Title: Towards Understanding the Benefits of Neural Network Parameterizations in Geophysical Inversions: A Study With Neural Fields
- Title(参考訳): 物理インバージョンにおけるニューラルネットワークパラメータ化の利点の理解に向けて:ニューラルフィールドを用いた検討
- Authors: Anran Xu, Lindsey J. Heagy,
- Abstract要約: 本研究では、ニューラルネットワークを用いて、その座標における対応する物理特性値に座標をマッピングする。
テスト時間学習法では、トレーニングデータセットを用いてネットワークをトレーニングする必要がある従来のアプローチと比較して、ウェイトをインバージョン中に学習する。
- 参考スコア(独自算出の注目度): 1.7396556690675236
- License:
- Abstract: In this work, we employ neural fields, which use neural networks to map a coordinate to the corresponding physical property value at that coordinate, in a test-time learning manner. For a test-time learning method, the weights are learned during the inversion, as compared to traditional approaches which require a network to be trained using a training data set. Results for synthetic examples in seismic tomography and direct current resistivity inversions are shown first. We then perform a singular value decomposition analysis on the Jacobian of the weights of the neural network (SVD analysis) for both cases to explore the effects of neural networks on the recovered model. The results show that the test-time learning approach can eliminate unwanted artifacts in the recovered subsurface physical property model caused by the sensitivity of the survey and physics. Therefore, NFs-Inv improves the inversion results compared to the conventional inversion in some cases such as the recovery of the dip angle or the prediction of the boundaries of the main target. In the SVD analysis, we observe similar patterns in the left-singular vectors as were observed in some diffusion models, trained in a supervised manner, for generative tasks in computer vision. This observation provides evidence that there is an implicit bias, which is inherent in neural network structures, that is useful in supervised learning and test-time learning models. This implicit bias has the potential to be useful for recovering models in geophysical inversions.
- Abstract(参考訳): 本研究では、ニューラルネットワークを用いて、その座標における対応する物理特性値に座標をマッピングする。
テスト時間学習法では、トレーニングデータセットを用いてネットワークをトレーニングする必要がある従来のアプローチと比較して、ウェイトをインバージョン中に学習する。
耐震トモグラフィーと直流比抵抗インバージョンにおける合成例を最初に示す。
次に,ニューラルネットワークの重みのヤコビアン(SVD解析)の特異値分解分析を行い,ニューラルネットワークが回復モデルに与える影響を探索する。
その結果, 試験時間学習手法は, 調査や物理の感度に起因して, 回収された地下の物理的特性モデルにおいて不要な成果物を除去できることがわかった。
したがって、NFs-Invは、ディップ角の回復や主目標の境界の予測など、従来の逆転よりも逆転結果を改善する。
SVD解析では,左特異ベクトルの類似したパターンを,コンピュータビジョンにおける生成タスクのための教師付き方法で訓練した拡散モデルで観察した。
この観察は、ニューラルネットワーク構造に固有の暗黙のバイアスがあり、教師あり学習モデルやテストタイム学習モデルに有用であることを示す。
この暗黙のバイアスは、地球物理学的逆転のモデルを取り戻すのに役立つ可能性がある。
関連論文リスト
- A Survey on Statistical Theory of Deep Learning: Approximation, Training Dynamics, and Generative Models [13.283281356356161]
本稿では3つの観点から,ニューラルネットワークの統計理論に関する文献をレビューする。
ニューラルネットワークの過剰なリスクに関する調査結果をレビューする。
ニューラルネットワークが、目に見えないデータでうまく一般化できるソリューションを見つける方法に答えようとする論文」をレビューする。
論文 参考訳(メタデータ) (2024-01-14T02:30:19Z) - A Test-Time Learning Approach to Reparameterize the Geophysical Inverse Problem with a Convolutional Neural Network [1.7396556690675236]
明示的な正規化はよく用いられるが、ニューラルネットワーク構造に固有の暗黙的な正規化効果を探求する機会がある。
研究者たちは、畳み込みニューラルネットワーク(CNN)アーキテクチャが本質的に正規化を強制していることを発見した。
本研究では,この暗黙的正則化の地学逆転への適用性について検討する。
論文 参考訳(メタデータ) (2023-12-07T23:53:30Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Persistent Homology Captures the Generalization of Neural Networks
Without A Validation Set [0.0]
本稿では,代数的トポロジー,特に永続的ホモロジーを用いたニューラルネットワークのトレーニングについて考察する。
ニューラルネットワークの単純な複雑な表現を用いて、ニューラルネットワーク学習プロセスにおけるPHダイアグラム距離の進化について検討する。
その結果,連続するニューラルネットワーク状態間のPHダイアグラム距離は,検証精度と相関していることがわかった。
論文 参考訳(メタデータ) (2021-05-31T09:17:31Z) - MLDS: A Dataset for Weight-Space Analysis of Neural Networks [0.0]
MLDSは、注意深く制御されたパラメータを持つ何千ものトレーニングニューラルネットワークからなる新しいデータセットである。
このデータセットは、モデル-to-modelとモデル-to-training-data関係に関する新たな洞察を可能にする。
論文 参考訳(メタデータ) (2021-04-21T14:24:26Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。