論文の概要: Explainable Deep Learning: A Field Guide for the Uninitiated
- arxiv url: http://arxiv.org/abs/2004.14545v2
- Date: Mon, 13 Sep 2021 11:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 02:56:19.065241
- Title: Explainable Deep Learning: A Field Guide for the Uninitiated
- Title(参考訳): 説明可能なディープラーニング: 初心者のためのフィールドガイド
- Authors: Gabrielle Ras, Ning Xie, Marcel van Gerven, Derek Doran
- Abstract要約: ディープニューラルネットワーク(DNN)は、証明され、必要不可欠な機械学習ツールになっている。
モデル入力のどの側面がDNNの決定を駆動しているかを診断することは依然として困難である。
本稿は、現場にいない人々を対象とした説明可能な深層学習の空間を探求するためのフィールドガイドを提供する。
- 参考スコア(独自算出の注目度): 7.606022509623764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have become a proven and indispensable machine
learning tool. As a black-box model, it remains difficult to diagnose what
aspects of the model's input drive the decisions of a DNN. In countless
real-world domains, from legislation and law enforcement to healthcare, such
diagnosis is essential to ensure that DNN decisions are driven by aspects
appropriate in the context of its use. The development of methods and studies
enabling the explanation of a DNN's decisions has thus blossomed into an
active, broad area of research. A practitioner wanting to study explainable
deep learning may be intimidated by the plethora of orthogonal directions the
field has taken. This complexity is further exacerbated by competing
definitions of what it means ``to explain'' the actions of a DNN and to
evaluate an approach's ``ability to explain''. This article offers a field
guide to explore the space of explainable deep learning aimed at those
uninitiated in the field. The field guide: i) Introduces three simple
dimensions defining the space of foundational methods that contribute to
explainable deep learning, ii) discusses the evaluations for model
explanations, iii) places explainability in the context of other related deep
learning research areas, and iv) finally elaborates on user-oriented
explanation designing and potential future directions on explainable deep
learning. We hope the guide is used as an easy-to-digest starting point for
those just embarking on research in this field.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、証明され、必要不可欠な機械学習ツールになっている。
ブラックボックスモデルとして、モデル入力のどの側面がDNNの決定を駆動しているかを診断することは依然として困難である。
法律や法執行機関から医療まで、無数の現実世界のドメインにおいて、そのような診断は、DNNの決定がその使用状況に適切な側面によって駆動されることを保証するために不可欠である。
DNNの決定を説明できる方法や研究の発展は、活発で幅広い研究領域に花を咲かせている。
説明可能な深層学習を研究したい実践者は、フィールドが取ってきた直交方向の多角形に脅かされるかもしれない。
この複雑さは、dnnのアクションの ``to explain'' の意味とアプローチの ``ability to explain''' を評価するための競合する定義によってさらに悪化する。
本稿は、現場にいない人々を対象とした説明可能な深層学習の空間を探求するためのフィールドガイドを提供する。
フィールドガイド:
i) 説明可能な深層学習に寄与する基礎的手法の空間を定義する3つの簡単な次元を導入する。
二 モデル説明の評価について論じる。
三 他の深層学習分野の文脈において説明可能性を置くこと、及び
iv)最後に,ユーザ指向の説明設計と説明可能な深層学習の今後の方向性について詳述する。
このガイドが、この分野の研究に着手したばかりの人たちにとって、分かりやすい出発点になることを願っている。
関連論文リスト
- Searching for internal symbols underlying deep learning [0.36832029288386137]
ディープラーニング(DL)は、ディープニューラルネットワーク(DNN)が、指示や指針なしに、与えられた例から複雑なタスクやルールを自動的に学習することを可能にする。
研究の1行は、DNNが人間に認識可能な高いレベルの特徴である概念を学習する可能性があることを示唆している。
基礎セグメンテーションモデルと教師なし学習を組み合わせて、内部コードを抽出し、抽象コードの可能性を特定し、DLの決定をより信頼性と安全性を高める。
論文 参考訳(メタデータ) (2024-05-31T03:39:26Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Position: Topological Deep Learning is the New Frontier for Relational Learning [51.05869778335334]
トポロジカルディープラーニング(TDL)は、トポロジカルな特徴を用いてディープラーニングモデルを理解し設計する、急速に進化する分野である。
本稿では,TDLがリレーショナル学習の新たなフロンティアであることを示す。
論文 参考訳(メタデータ) (2024-02-14T00:35:10Z) - Understanding CNN Hidden Neuron Activations Using Structured Background
Knowledge and Deductive Reasoning [3.6223658572137825]
最先端技術は、隠されたノードのアクティベーションが、場合によっては人間にとって意味のある方法で解釈可能であることを示している。
畳み込みニューラルネットワークの高密度層において,背景知識から意味のあるラベルを個々のニューロンに自動的にアタッチできることを示す。
論文 参考訳(メタデータ) (2023-08-08T02:28:50Z) - DARE: Towards Robust Text Explanations in Biomedical and Healthcare
Applications [54.93807822347193]
帰属ロバスト性評価手法を与えられたドメインに適応させ、ドメイン固有の妥当性を考慮する方法を示す。
次に,DAREが特徴とする脆さを軽減するために,対人訓練とFAR訓練の2つの方法を提案する。
最後に,確立した3つのバイオメディカル・ベンチマークを用いて実験を行い,本手法を実証的に検証した。
論文 参考訳(メタデータ) (2023-07-05T08:11:40Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Mapping Knowledge Representations to Concepts: A Review and New
Perspectives [0.6875312133832078]
本論は、内部表現と人間の理解可能な概念を関連付けることを目的とした研究に焦点をあてる。
この分類学と因果関係の理論は、ニューラルネットワークの説明から期待できるもの、期待できないものを理解するのに有用である。
この分析は、モデル説明可能性の目標に関するレビューされた文献の曖昧さも明らかにしている。
論文 参考訳(メタデータ) (2022-12-31T12:56:12Z) - On the Robustness of Explanations of Deep Neural Network Models: A
Survey [14.940679892694089]
本稿では,Deep Neural Network(DNN)モデルの説明を研究・理解・攻撃・防衛する手法の総合的な調査を行う。
また,説明手法の評価や属性攻撃,防衛手法の詳細な検討を行う。
論文 参考訳(メタデータ) (2022-11-09T10:14:21Z) - Robust Explainability: A Tutorial on Gradient-Based Attribution Methods
for Deep Neural Networks [1.5854438418597576]
本稿では、ディープニューラルネットワークの決定を説明するための勾配に基づく解釈可能性法を提案する。
敵の頑健さが意味のある説明を持つ上で果たす役割について論じる。
我々は、堅牢性と説明可能性の収束における研究の今後の方向性を結論づける。
論文 参考訳(メタデータ) (2021-07-23T18:06:29Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。