論文の概要: On the Robustness and Generalization of Deep Learning Driven Full
Waveform Inversion
- arxiv url: http://arxiv.org/abs/2111.14220v1
- Date: Sun, 28 Nov 2021 19:27:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:33:15.628431
- Title: On the Robustness and Generalization of Deep Learning Driven Full
Waveform Inversion
- Title(参考訳): ディープラーニング駆動フルウェーブフォームインバージョンにおけるロバスト性と一般化について
- Authors: Chengyuan Deng, Youzuo Lin
- Abstract要約: フルウェーブフォーム・インバージョン(FWI)は画像から画像への変換タスクとして一般的にエピトマイズされる。
合成データでトレーニングされているにもかかわらず、ディープラーニング駆動のFWIは、十分な実世界のデータで評価すると、良好に動作することが期待されている。
これらのディープニューラルネットワークはどの程度堅牢で、どのように一般化されているのか?
- 参考スコア(独自算出の注目度): 2.5382095320488665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The data-driven approach has been demonstrated as a promising technique to
solve complicated scientific problems. Full Waveform Inversion (FWI) is
commonly epitomized as an image-to-image translation task, which motivates the
use of deep neural networks as an end-to-end solution. Despite being trained
with synthetic data, the deep learning-driven FWI is expected to perform well
when evaluated with sufficient real-world data. In this paper, we study such
properties by asking: how robust are these deep neural networks and how do they
generalize? For robustness, we prove the upper bounds of the deviation between
the predictions from clean and noisy data. Moreover, we demonstrate an
interplay between the noise level and the additional gain of loss. For
generalization, we prove a norm-based generalization error upper bound via a
stability-generalization framework. Experimental results on seismic FWI
datasets corroborate with the theoretical results, shedding light on a better
understanding of utilizing Deep Learning for complicated scientific
applications.
- Abstract(参考訳): データ駆動アプローチは、複雑な科学的問題を解決する有望な技術として実証されている。
フル波形インバージョン(fwi)は、画像から画像への変換タスクとして一般的に認識され、エンドツーエンドのソリューションとしてディープニューラルネットワークを使用する動機となっている。
合成データでトレーニングされているにもかかわらず、ディープラーニング駆動のfwiは、十分な実世界データで評価した場合、うまく機能することが期待されている。
本稿では,これらの深層ニューラルネットワークはどの程度堅牢で,どのように一般化されているのか?
頑健性については,クリーンデータとノイズデータから予測値のずれの上限を証明した。
さらに、ノイズレベルと損失の増大の間の相互作用を示す。
一般化のために、安定性一般化フレームワークを用いてノルムベースの一般化誤差上限を証明する。
地震動fwiデータセットに関する実験結果は理論結果と一致し、複雑な科学応用にディープラーニングを活用することの理解を深めた。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Improving Robustness via Tilted Exponential Layer: A
Communication-Theoretic Perspective [22.062492862286025]
通信理論は、ニューラルネットワーク層の出力における信号対雑音比を、ニューラルコンペティションを介して向上することを目的としている。
TEXP学習はマッチングフィルタの最大推定値として解釈できる。
TEXP推論はノイズや他の一般的な腐敗に対する堅牢性を高める。
論文 参考訳(メタデータ) (2023-11-02T07:47:42Z) - Optimization dependent generalization bound for ReLU networks based on
sensitivity in the tangent bundle [0.0]
本稿では,フィードフォワードReLUネットワークの一般化誤差に基づいたPAC型を提案する。
得られた境界はネットワークの深さに明示的に依存しない。
論文 参考訳(メタデータ) (2023-10-26T13:14:13Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - An Information-Theoretic Framework for Supervised Learning [22.280001450122175]
後悔とサンプルの複雑さという独自の概念を持つ新しい情報理論フレームワークを提案する。
本稿では、ReLUアクティベーションユニットを用いたディープニューラルネットワークによって生成されたデータから学習する際のサンプルの複雑さについて検討する。
我々は、ランダムな単層ニューラルネットワークの実験的な解析により、理論結果を裏付けることで結論付ける。
論文 参考訳(メタデータ) (2022-03-01T05:58:28Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Dropout: Explicit Forms and Capacity Control [57.36692251815882]
各種機械学習問題におけるドロップアウトによるキャパシティ制御について検討する。
ディープラーニングでは、ドロップアウトによるデータ依存型正規化器が、基礎となるディープニューラルネットワークのクラスであるRademacherの複雑さを直接制御していることを示す。
MovieLens, MNIST, Fashion-MNISTなどの実世界のデータセットに関する理論的知見を評価する。
論文 参考訳(メタデータ) (2020-03-06T19:10:15Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。