論文の概要: Example Forgetting: A Novel Approach to Explain and Interpret Deep
Neural Networks in Seismic Interpretation
- arxiv url: http://arxiv.org/abs/2302.14644v1
- Date: Fri, 24 Feb 2023 19:19:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 15:58:12.074560
- Title: Example Forgetting: A Novel Approach to Explain and Interpret Deep
Neural Networks in Seismic Interpretation
- Title(参考訳): 例 forgetting: 深層ニューラルネットワークの地震解釈における説明と解釈のための新しいアプローチ
- Authors: Ryan Benkert, Oluwaseun Joseph Aribido, and Ghassan AlRegib
- Abstract要約: ディープニューラルネットワークは、共通の解釈パイプラインにとって魅力的なコンポーネントです。
深層ニューラルネットワークは、モデルが訓練されていない部分に露出した場合、意味的に不正確な出力を生成するという特性のため、しばしば不信に満ちている。
本稿では,意味的誤動作予測をニューラルネットワーク表現多様体内の優雅な位置と効果的に関連付ける手法を提案する。
- 参考スコア(独自算出の注目度): 12.653673008542155
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, deep neural networks have significantly impacted the seismic
interpretation process. Due to the simple implementation and low interpretation
costs, deep neural networks are an attractive component for the common
interpretation pipeline. However, neural networks are frequently met with
distrust due to their property of producing semantically incorrect outputs when
exposed to sections the model was not trained on. We address this issue by
explaining model behaviour and improving generalization properties through
example forgetting: First, we introduce a method that effectively relates
semantically malfunctioned predictions to their respectful positions within the
neural network representation manifold. More concrete, our method tracks how
models "forget" seismic reflections during training and establishes a
connection to the decision boundary proximity of the target class. Second, we
use our analysis technique to identify frequently forgotten regions within the
training volume and augment the training set with state-of-the-art style
transfer techniques from computer vision. We show that our method improves the
segmentation performance on underrepresented classes while significantly
reducing the forgotten regions in the F3 volume in the Netherlands.
- Abstract(参考訳): 近年,深層ニューラルネットワークが地震波の解釈過程に大きな影響を与えている。
単純な実装と低い解釈コストのため、ディープニューラルネットワークは共通の解釈パイプラインにとって魅力的なコンポーネントである。
しかし、ニューラルネットワークは、モデルがトレーニングされていないセクションに露出すると、意味的に不正確なアウトプットを生成する性質から、しばしば不信感に満ちている。
まず,ニューラルネットワーク表現多様体内の重み付け位置に対して,意味論的に故障した予測を効果的に関連付ける手法を提案する。
より具体的に,本手法は,訓練中にモデルが地震反射を「忘れる」方法を追跡し,対象クラスの決定境界近傍との接続を確立する。
第2に,本解析手法を用いて学習ボリューム内の忘れられた領域を識別し,コンピュータビジョンによる最新技術によるトレーニングセットの強化を行う。
本手法は,オランダのf3ボリュームにおける忘れられた領域を大幅に削減しながら,低表現クラスのセグメンテーション性能を向上させることを示す。
関連論文リスト
- SoK: On Finding Common Ground in Loss Landscapes Using Deep Model Merging Techniques [4.013324399289249]
本稿では,モデルマージ手法の新たな分類法を提案する。
これらの分野における文献からの反復的な経験的観察を,ロスランドスケープ幾何学の4つの主要な側面のキャラクタリゼーションに用いた。
論文 参考訳(メタデータ) (2024-10-16T18:14:05Z) - A Survey on Statistical Theory of Deep Learning: Approximation, Training Dynamics, and Generative Models [13.283281356356161]
本稿では3つの観点から,ニューラルネットワークの統計理論に関する文献をレビューする。
ニューラルネットワークの過剰なリスクに関する調査結果をレビューする。
ニューラルネットワークが、目に見えないデータでうまく一般化できるソリューションを見つける方法に答えようとする論文」をレビューする。
論文 参考訳(メタデータ) (2024-01-14T02:30:19Z) - Explaining Deep Models through Forgettable Learning Dynamics [12.653673008542155]
学習中の学習行動の可視化には,その後の学習の時期において,サンプルがどれだけ多く学習され,忘れられるかを追跡する。
この現象に触発されて,この情報を積極的に利用してモデル内のデータ表現を変化させる新たなセグメンテーション手法を提案する。
論文 参考訳(メタデータ) (2023-01-10T21:59:20Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Defensive Tensorization [113.96183766922393]
本稿では,ネットワークの遅延高次分解を利用した対角防御手法であるテンソル防御手法を提案する。
我々は,標準画像分類ベンチマークにおけるアプローチの有効性を実証的に実証した。
我々は,音声タスクとバイナリネットワークを考慮し,ドメイン間のアプローチと低精度アーキテクチャの汎用性を検証した。
論文 参考訳(メタデータ) (2021-10-26T17:00:16Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Explainability-aided Domain Generalization for Image Classification [0.0]
説明可能性文献から手法やアーキテクチャを適用することで、ドメインの一般化という困難な課題に対して最先端のパフォーマンスを達成できることを示す。
そこで我々は,勾配に基づくクラスアクティベーションマップを用いて学習中にネットワークが指導を受ける手法であるDivCAMを含む新しいアルゴリズムを開発し,多様な識別機能に焦点をあてる。
これらの手法は、説明可能性に加えて競合性能を提供するため、深層ニューラルネットワークアーキテクチャのロバスト性を改善するツールとして使用できると論じる。
論文 参考訳(メタデータ) (2021-04-05T02:27:01Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Retrospective Loss: Looking Back to Improve Training of Deep Neural
Networks [15.329684157845872]
我々は、ディープニューラルネットワークモデルのトレーニングを改善するために、新しい振り返り損失を導入する。
レトロスペクティブの損失を最小限に抑え、タスク固有の損失と共に、現在のトレーニングステップでパラメータ状態を最適なパラメータ状態にプッシュします。
簡単なアイデアではあるが、我々はこの手法を解析し、ドメイン全体にわたる包括的な実験を行う。
論文 参考訳(メタデータ) (2020-06-24T10:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。