論文の概要: On the Relationship Between Interpretability and Explainability in Machine Learning
- arxiv url: http://arxiv.org/abs/2311.11491v2
- Date: Thu, 25 Apr 2024 12:06:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 23:37:50.362106
- Title: On the Relationship Between Interpretability and Explainability in Machine Learning
- Title(参考訳): 機械学習における解釈可能性と説明可能性の関係について
- Authors: Benjamin Leblanc, Pascal Germain,
- Abstract要約: 解釈可能性と説明可能性は、機械学習の分野でますます注目を集めている。
両者は予測者とその決定プロセスに関する情報を提供するため、単一のエンドに対して2つの独立した手段と見なされることが多い。
複雑なブラックボックスモデル用に設計された説明可能性技術、あるいは多くの説明可能性ツールを無視した解釈可能なアプローチ。
- 参考スコア(独自算出の注目度): 2.828173677501078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability and explainability have gained more and more attention in the field of machine learning as they are crucial when it comes to high-stakes decisions and troubleshooting. Since both provide information about predictors and their decision process, they are often seen as two independent means for one single end. This view has led to a dichotomous literature: explainability techniques designed for complex black-box models, or interpretable approaches ignoring the many explainability tools. In this position paper, we challenge the common idea that interpretability and explainability are substitutes for one another by listing their principal shortcomings and discussing how both of them mitigate the drawbacks of the other. In doing so, we call for a new perspective on interpretability and explainability, and works targeting both topics simultaneously, leveraging each of their respective assets.
- Abstract(参考訳): 解釈可能性と説明可能性は、高度な意思決定とトラブルシューティングに関して、機械学習の分野でますます注目を集めている。
両者は予測者とその決定プロセスに関する情報を提供するため、単一のエンドに対して2つの独立した手段と見なされることが多い。
複雑なブラックボックスモデル用に設計された説明可能性技術、あるいは多くの説明可能性ツールを無視した解釈可能なアプローチ。
本稿では,解釈可能性と説明可能性が相互に代用されるという共通の考え方に対して,主要な欠点を列挙し,両者の欠点を緩和する方法について論じる。
そこで我々は、解釈可能性と説明可能性に関する新たな視点を求め、それぞれの資産を活用しながら、両方のトピックを同時にターゲットとして作業する。
関連論文リスト
- Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Interpretable Artificial Intelligence through the Lens of Feature
Interaction [11.217688723644454]
この研究はまず、機能相互作用の歴史的かつ近代的な重要性を説明し、続いて、機能相互作用を明示的に考慮する近代的解釈可能性法を調査した。
この調査は、機械学習の解釈可能性のより大きな文脈における機能相互作用の重要性を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2021-03-01T23:23:10Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Interpretability and Explainability: A Machine Learning Zoo Mini-tour [4.56877715768796]
解釈可能性と説明可能性は、医学、経済学、法学、自然科学における多くの機械学習および統計応用の中核にある。
本稿では,解釈可能性と説明可能性の相違を強調し,これら2つの研究方向について,その具体例を示す。
論文 参考訳(メタデータ) (2020-12-03T10:11:52Z) - Abduction and Argumentation for Explainable Machine Learning: A Position
Survey [2.28438857884398]
本稿では, 推論の2つの原則形式として, 帰納法と論証法を提案する。
機械学習の中で彼らが果たせる基本的な役割を具体化します。
論文 参考訳(メタデータ) (2020-10-24T13:23:44Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Causality Learning: A New Perspective for Interpretable Machine Learning [15.556963808865918]
解釈可能な機械学習は、現在、研究コミュニティで主要なトピックです。
本稿では,基礎的背景と重要な概念を用いた因果解析の概要を述べるとともに,直近の因果解析における因果解析手法を要約する。
論文 参考訳(メタデータ) (2020-06-27T13:01:28Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。