論文の概要: Interpretability in Machine Learning: on the Interplay with
Explainability, Predictive Performances and Models
- arxiv url: http://arxiv.org/abs/2311.11491v1
- Date: Mon, 20 Nov 2023 02:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 20:06:26.425396
- Title: Interpretability in Machine Learning: on the Interplay with
Explainability, Predictive Performances and Models
- Title(参考訳): 機械学習における解釈可能性--説明可能性,予測性能,モデルとの相互作用について
- Authors: Benjamin Leblanc and Pascal Germain
- Abstract要約: 解釈可能性は最近、機械学習の分野で注目を集めている。
機械学習における重要な概念である説明可能性、予測性能、機械学習モデルとの関係について論じる。
- 参考スコア(独自算出の注目度): 3.341112547288814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability has recently gained attention in the field of machine
learning, for it is crucial when it comes to high-stakes decisions or
troubleshooting. This abstract concept is hard to grasp and has been
associated, over time, with many labels and preconceived ideas. In this
position paper, in order to clarify some misunderstandings regarding
interpretability, we discuss its relationship with significant concepts in
machine learning: explainability, predictive performances, and machine learning
models. For instance, we challenge the idea that interpretability and
explainability are substitutes to one another, or that a fixed degree of
interpretability can be associated with a given machine learning model.
- Abstract(参考訳): 解釈可能性は最近、機械学習の分野で注目を集めている。
この抽象概念は理解が困難で、時間とともに多くのラベルや先入観を持つようになった。
本稿では,解釈可能性に関する誤解を明らかにするために,説明可能性,予測性能,機械学習モデルといった機械学習の重要な概念との関係について論じる。
例えば、解釈可能性と説明可能性が相互に代用される、あるいは一定の解釈可能性が与えられた機械学習モデルに関連付けられるという考えに挑戦する。
関連論文リスト
- Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Interpretable Artificial Intelligence through the Lens of Feature
Interaction [11.217688723644454]
この研究はまず、機能相互作用の歴史的かつ近代的な重要性を説明し、続いて、機能相互作用を明示的に考慮する近代的解釈可能性法を調査した。
この調査は、機械学習の解釈可能性のより大きな文脈における機能相互作用の重要性を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2021-03-01T23:23:10Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Interpretability and Explainability: A Machine Learning Zoo Mini-tour [4.56877715768796]
解釈可能性と説明可能性は、医学、経済学、法学、自然科学における多くの機械学習および統計応用の中核にある。
本稿では,解釈可能性と説明可能性の相違を強調し,これら2つの研究方向について,その具体例を示す。
論文 参考訳(メタデータ) (2020-12-03T10:11:52Z) - Abduction and Argumentation for Explainable Machine Learning: A Position
Survey [2.28438857884398]
本稿では, 推論の2つの原則形式として, 帰納法と論証法を提案する。
機械学習の中で彼らが果たせる基本的な役割を具体化します。
論文 参考訳(メタデータ) (2020-10-24T13:23:44Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Causality Learning: A New Perspective for Interpretable Machine Learning [15.556963808865918]
解釈可能な機械学習は、現在、研究コミュニティで主要なトピックです。
本稿では,基礎的背景と重要な概念を用いた因果解析の概要を述べるとともに,直近の因果解析における因果解析手法を要約する。
論文 参考訳(メタデータ) (2020-06-27T13:01:28Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。