論文の概要: Toward Explainable AI for Regression Models
- arxiv url: http://arxiv.org/abs/2112.11407v1
- Date: Tue, 21 Dec 2021 18:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 13:25:08.934965
- Title: Toward Explainable AI for Regression Models
- Title(参考訳): 回帰モデルのための説明可能なAIを目指して
- Authors: Simon Letzgus, Patrick Wagner, Jonas Lederer, Wojciech Samek,
Klaus-Robert M\"uller, and Gregoire Montavon
- Abstract要約: 説明可能なAI(XAI)技術は、分類器でかなりの人気を得た。
しかし、回帰モデル(XAIR)のXAIにはほとんど注意が向けられていない。
本稿では、回帰・分類タスクにおけるXAIの基本的な概念的差異を明らかにし、XAIRの新たな理論的洞察と分析を確立し、この分野に残る課題について議論する。
- 参考スコア(独自算出の注目度): 9.580887668756692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In addition to the impressive predictive power of machine learning (ML)
models, more recently, explanation methods have emerged that enable an
interpretation of complex non-linear learning models such as deep neural
networks. Gaining a better understanding is especially important e.g. for
safety-critical ML applications or medical diagnostics etc. While such
Explainable AI (XAI) techniques have reached significant popularity for
classifiers, so far little attention has been devoted to XAI for regression
models (XAIR). In this review, we clarify the fundamental conceptual
differences of XAI for regression and classification tasks, establish novel
theoretical insights and analysis for XAIR, provide demonstrations of XAIR on
genuine practical regression problems, and finally discuss the challenges
remaining for the field.
- Abstract(参考訳): 機械学習(ML)モデルの印象的な予測力に加えて、最近ではディープニューラルネットワークのような複雑な非線形学習モデルの解釈を可能にする説明方法が出現している。
安全性クリティカルなmlアプリケーションや医療診断など、より深い理解を得ることは特に重要です。
このような説明可能なAI(XAI)技術は分類器でかなりの人気を得ているが、XAIの回帰モデル(XAIR)にはほとんど注目されていない。
本稿では,回帰と分類タスクにおけるxaiの基本的な概念的差異を明らかにし,xairの新たな理論的洞察と分析を確立し,実際的な回帰問題に対するxairの実証を行い,最終的にこの分野に残る課題について議論する。
関連論文リスト
- Introducing δ-XAI: a novel sensitivity-based method for local AI explanations [42.06878765569675]
ハイパフォーマンスなAI/MLモデルは、しばしば解釈可能性に欠け、臨床医の予測に対する信頼を妨げている。
これを解決するために、AI/ML予測を人間の理解可能な言葉で記述するXAI技術が開発されている。
本稿では、デルタ指数を拡張してMLモデル予測の局所的な説明を提供する新しいデルタXAI法を提案する。
論文 参考訳(メタデータ) (2024-07-25T19:07:49Z) - Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - XpertAI: uncovering model strategies for sub-manifolds [1.2874569408514918]
レグレッションでは、特定のユーザクエリに対処するために、説明を正確に定式化する必要がある。
XpertAIは、予測戦略を複数の範囲固有のサブストラテジーに切り離すフレームワークである。
論文 参考訳(メタデータ) (2024-03-12T10:21:31Z) - X Hacking: The Threat of Misguided AutoML [2.3011205420794574]
本稿では、シャップ値などのXAIメトリクスに適用されたpハックの一種であるXハックの概念を紹介する。
自動機械学習パイプラインは、共通のベースラインに優れたパフォーマンスを維持しつつ、望ましい説明を生成する「防御可能な」モデルを探すためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2024-01-16T17:21:33Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Optimizing Explanations by Network Canonization and Hyperparameter
Search [74.76732413972005]
ルールベースで修正されたバックプロパゲーションXAIアプローチは、モダンなモデルアーキテクチャに適用される場合、しばしば課題に直面します。
モデルカノン化は、基礎となる機能を変更することなく問題のあるコンポーネントを無視してモデルを再構成するプロセスである。
本研究では、一般的なディープニューラルネットワークアーキテクチャに適用可能な、現在関連するモデルブロックのカノン化を提案する。
論文 参考訳(メタデータ) (2022-11-30T17:17:55Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Tree-based local explanations of machine learning model predictions,
AraucanaXAI [2.9660372210786563]
パフォーマンスと知性の間のトレードオフは、特に医学のような高度な応用において、しばしば直面する。
本稿では,ジェネリックMLモデルの予測に関する説明を生成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T17:39:19Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。