論文の概要: Explaining Deep Neural Networks and Beyond: A Review of Methods and
Applications
- arxiv url: http://arxiv.org/abs/2003.07631v2
- Date: Thu, 25 Feb 2021 12:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 20:20:34.734418
- Title: Explaining Deep Neural Networks and Beyond: A Review of Methods and
Applications
- Title(参考訳): deep neural network and beyond: a review of methods and applications (特集 深層ニューラルネットワークとその周辺)
- Authors: Wojciech Samek, Gr\'egoire Montavon, Sebastian Lapuschkin, Christopher
J. Anders, Klaus-Robert M\"uller
- Abstract要約: 非線形機械学習の問題解決能力と戦略をよりよく理解するための解釈可能性と説明法が注目されている。
我々は、この活発な新興分野のタイムリーな概要を「ポストホック」の説明に焦点をあて、その理論的基礎を説明する。
機械学習のこのエキサイティングな基礎分野の課題と今後の方向性について論じる。
- 参考スコア(独自算出の注目度): 12.239046765871109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the broader and highly successful usage of machine learning in industry
and the sciences, there has been a growing demand for Explainable AI.
Interpretability and explanation methods for gaining a better understanding
about the problem solving abilities and strategies of nonlinear Machine
Learning, in particular, deep neural networks, are therefore receiving
increased attention. In this work we aim to (1) provide a timely overview of
this active emerging field, with a focus on 'post-hoc' explanations, and
explain its theoretical foundations, (2) put interpretability algorithms to a
test both from a theory and comparative evaluation perspective using extensive
simulations, (3) outline best practice aspects i.e. how to best include
interpretation methods into the standard usage of machine learning and (4)
demonstrate successful usage of explainable AI in a representative selection of
application scenarios. Finally, we discuss challenges and possible future
directions of this exciting foundational field of machine learning.
- Abstract(参考訳): 業界や科学における機械学習の利用が広く、そして非常に成功したことで、説明可能なaiに対する需要が高まっている。
したがって、非線形機械学習、特にディープニューラルネットワークの問題解決能力と戦略をより深く理解するための解釈可能性と説明法が注目されている。
In this work we aim to (1) provide a timely overview of this active emerging field, with a focus on 'post-hoc' explanations, and explain its theoretical foundations, (2) put interpretability algorithms to a test both from a theory and comparative evaluation perspective using extensive simulations, (3) outline best practice aspects i.e. how to best include interpretation methods into the standard usage of machine learning and (4) demonstrate successful usage of explainable AI in a representative selection of application scenarios.
最後に,この機械学習のエキサイティングな基礎分野の課題と今後の方向性について論じる。
関連論文リスト
- Explainability in AI Based Applications: A Framework for Comparing Different Techniques [2.5874041837241304]
ビジネスアプリケーションでは、理解可能性と精度のバランスをとる適切な説明可能性方法を選択することが課題である。
本稿では,異なる説明可能性手法の一致を評価するための新しい手法を提案する。
多様な説明可能性手法の合意を理解するための実践的な枠組みを提供することにより、ビジネスアプリケーションにおける解釈可能なAIシステムのより広範な統合を促進することを目的としている。
論文 参考訳(メタデータ) (2024-10-28T09:45:34Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Interpretable and Explainable Machine Learning Methods for Predictive
Process Monitoring: A Systematic Literature Review [1.3812010983144802]
本稿では,機械学習モデル(ML)の予測プロセスマイニングの文脈における説明可能性と解釈可能性について,系統的に検討する。
我々は、様々なアプリケーション領域にまたがる現在の方法論とその応用の概要を概観する。
我々の研究は、プロセス分析のためのより信頼性が高く透明で効果的なインテリジェントシステムの開発と実装方法について、研究者や実践者がより深く理解することを目的としている。
論文 参考訳(メタデータ) (2023-12-29T12:43:43Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Individual Explanations in Machine Learning Models: A Case Study on
Poverty Estimation [63.18666008322476]
機械学習の手法は、敏感な社会的文脈でますます適用されつつある。
本研究の主な目的は2つある。
まず、これらの課題を公開し、関連性のある新しい説明方法の使用にどのように影響するか。
次に、関連するアプリケーションドメインで説明メソッドを実装する際に直面するような課題を軽減する一連の戦略を提示します。
論文 参考訳(メタデータ) (2021-04-09T01:54:58Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。