論文の概要: Actionable Attribution Maps for Scientific Machine Learning
- arxiv url: http://arxiv.org/abs/2006.16533v1
- Date: Tue, 30 Jun 2020 05:12:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:03:01.970804
- Title: Actionable Attribution Maps for Scientific Machine Learning
- Title(参考訳): 科学的機械学習のための行動型属性マップ
- Authors: Shusen Liu, Bhavya Kailkhura, Jize Zhang, Anna M. Hiszpanski, Emily
Robertson, Donald Loveland, T. Yong-Jin Han
- Abstract要約: 分析パイプラインにおいて、ドメイン固有の実行可能な概念を「ノブ」として注入することで、ディープラーニングモデルの振る舞いを探索する手法を提案する。
ブラックボックスモデルの振る舞いをよりよく理解するだけでなく、科学者に基本的な発見につながる可能性のある実用的な洞察を与えることができます。
- 参考スコア(独自算出の注目度): 15.397603191537206
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The scientific community has been increasingly interested in harnessing the
power of deep learning to solve various domain challenges. However, despite the
effectiveness in building predictive models, fundamental challenges exist in
extracting actionable knowledge from the deep neural network due to their
opaque nature. In this work, we propose techniques for exploring the behavior
of deep learning models by injecting domain-specific actionable concepts as
tunable ``knobs'' in the analysis pipeline. By incorporating the domain
knowledge with generative modeling, we are not only able to better understand
the behavior of these black-box models, but also provide scientists with
actionable insights that can potentially lead to fundamental discoveries.
- Abstract(参考訳): 科学コミュニティは、さまざまな領域の課題を解決するためにディープラーニングの力を活用することにますます関心を寄せている。
しかしながら、予測モデルの構築に効果があるにもかかわらず、その不透明な性質からディープニューラルネットワークから実行可能な知識を抽出することには、基本的な課題が存在する。
本研究では,分析パイプラインに,ドメイン固有の動作可能な概念をチューナブルな`knobs'として注入することにより,ディープラーニングモデルの振る舞いを探索する手法を提案する。
ドメイン知識を生成モデルに組み込むことで、これらのブラックボックスモデルの振る舞いをよりよく理解できるだけでなく、科学者に基本的な発見につながる可能性のある実用的な洞察を与えることができる。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - A Survey on State-of-the-art Deep Learning Applications and Challenges [0.0]
ディープラーニングモデルの構築は、アルゴリズムの複雑さと現実世界の問題の動的な性質のため、難しい。
本研究の目的は,コンピュータビジョン,自然言語処理,時系列解析,広範コンピューティングにおける最先端のディープラーニングモデルを網羅的にレビューすることである。
論文 参考訳(メタデータ) (2024-03-26T10:10:53Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Unraveling Feature Extraction Mechanisms in Neural Networks [10.13842157577026]
本稿では, ニューラルネットワークカーネル(NTK)に基づく理論的手法を提案し, そのメカニズムを解明する。
これらのモデルが勾配降下時の統計的特徴をどのように活用し、最終決定にどのように統合されるかを明らかにする。
自己注意モデルとCNNモデルはn-gramの学習の限界を示すが、乗算モデルはこの領域で優れていると考えられる。
論文 参考訳(メタデータ) (2023-10-25T04:22:40Z) - Deep Learning-based Analysis of Basins of Attraction [49.812879456944984]
本研究は,様々な力学系における盆地の複雑さと予測不可能性を特徴づけることの課題に対処する。
主な焦点は、この分野における畳み込みニューラルネットワーク(CNN)の効率性を示すことである。
論文 参考訳(メタデータ) (2023-09-27T15:41:12Z) - Looking deeper into interpretable deep learning in neuroimaging: a
comprehensive survey [20.373311465258393]
本稿では、ニューロイメージング領域における解釈可能なディープラーニングモデルについて包括的にレビューする。
近年の神経画像研究は、モデル解釈可能性を利用して、モデル予測に最も関係のある解剖学的および機能的脳変化を捉える方法について論じている。
論文 参考訳(メタデータ) (2023-07-14T04:50:04Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Information theoretic analysis of computational models as a tool to
understand the neural basis of behaviors [0.0]
今世紀最大の研究課題の1つは、脳の身体環境システムにおける行動の神経基盤を理解することである。
計算モデルは、モデルシステムを研究することができる別のフレームワークを提供する。
本稿では,計算モデルの情報理論解析が強力な研究手法であることを示すための紹介,レビュー,議論を行う。
論文 参考訳(メタデータ) (2021-06-02T02:08:18Z) - Explainable Deep Learning for Uncovering Actionable Scientific Insights
for Materials Discovery and Design [15.397603191537206]
分析パイプラインにおいて、ドメイン固有の動作可能な属性を「ノブ」として注入することで、ディープラーニングモデルの振る舞いを探索する手法を提案する。
ブラックボックスモデルの振る舞いをよりよく理解するだけでなく、科学者に基本的な発見につながる可能性のある実用的な洞察を与えることができます。
論文 参考訳(メタデータ) (2020-07-16T20:53:40Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。