論文の概要: Interpretability in Machine Learning: on the Interplay with
Explainability, Predictive Performances and Models
- arxiv url: http://arxiv.org/abs/2311.11491v1
- Date: Mon, 20 Nov 2023 02:31:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 20:06:26.425396
- Title: Interpretability in Machine Learning: on the Interplay with
Explainability, Predictive Performances and Models
- Title(参考訳): 機械学習における解釈可能性--説明可能性,予測性能,モデルとの相互作用について
- Authors: Benjamin Leblanc and Pascal Germain
- Abstract要約: 解釈可能性は最近、機械学習の分野で注目を集めている。
機械学習における重要な概念である説明可能性、予測性能、機械学習モデルとの関係について論じる。
- 参考スコア(独自算出の注目度): 3.341112547288814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretability has recently gained attention in the field of machine
learning, for it is crucial when it comes to high-stakes decisions or
troubleshooting. This abstract concept is hard to grasp and has been
associated, over time, with many labels and preconceived ideas. In this
position paper, in order to clarify some misunderstandings regarding
interpretability, we discuss its relationship with significant concepts in
machine learning: explainability, predictive performances, and machine learning
models. For instance, we challenge the idea that interpretability and
explainability are substitutes to one another, or that a fixed degree of
interpretability can be associated with a given machine learning model.
- Abstract(参考訳): 解釈可能性は最近、機械学習の分野で注目を集めている。
この抽象概念は理解が困難で、時間とともに多くのラベルや先入観を持つようになった。
本稿では,解釈可能性に関する誤解を明らかにするために,説明可能性,予測性能,機械学習モデルといった機械学習の重要な概念との関係について論じる。
例えば、解釈可能性と説明可能性が相互に代用される、あるいは一定の解釈可能性が与えられた機械学習モデルに関連付けられるという考えに挑戦する。
関連論文リスト
- Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - REX: Reasoning-aware and Grounded Explanation [30.392986232906107]
我々は,画像中の推論プロセスとグラウンド化キーワードをトラバースすることで,意思決定を説明する,新しいタイプのマルチモーダルな説明を開発する。
第2に、意思決定を説明するために、視覚的およびテキスト的モダリティに重要なコンポーネントを密に結合する必要があることを特定する。
第3に、単語と興味のある領域のペアワイズ対応を明示的にモデル化する、新しい説明生成手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T17:28:42Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Interpretable Deep Learning: Interpretations, Interpretability,
Trustworthiness, and Beyond [49.93153180169685]
一般に混同される2つの基本的な概念(解釈と解釈可能性)を紹介・明らかにする。
我々は,新しい分類法を提案することにより,異なる視点から,最近のいくつかの解釈アルゴリズムの設計を詳細に述べる。
信頼される」解釈アルゴリズムを用いてモデルの解釈可能性を評価する上での既存の作業をまとめる。
論文 参考訳(メタデータ) (2021-03-19T08:40:30Z) - Fairness and Robustness of Contrasting Explanations [9.104557591459283]
対比する説明の個人の公平性と堅牢性を研究します。
反実説明の個人的公平性を改善するために,最も近い反実語の代わりに実用可能な反実語を使用することを提案する。
論文 参考訳(メタデータ) (2021-03-03T12:16:06Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Interpretability and Explainability: A Machine Learning Zoo Mini-tour [4.56877715768796]
解釈可能性と説明可能性は、医学、経済学、法学、自然科学における多くの機械学習および統計応用の中核にある。
本稿では,解釈可能性と説明可能性の相違を強調し,これら2つの研究方向について,その具体例を示す。
論文 参考訳(メタデータ) (2020-12-03T10:11:52Z) - Abduction and Argumentation for Explainable Machine Learning: A Position
Survey [2.28438857884398]
本稿では, 推論の2つの原則形式として, 帰納法と論証法を提案する。
機械学習の中で彼らが果たせる基本的な役割を具体化します。
論文 参考訳(メタデータ) (2020-10-24T13:23:44Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - One Explanation Does Not Fit All: The Promise of Interactive
Explanations for Machine Learning Transparency [21.58324172085553]
ブラックボックスシステムの透明性向上のための対話型機械学習の約束について論じる。
本稿では, 条件文を対話的に調整することで, 対実的説明をパーソナライズする方法を示す。
我々は、説明そのものとその内容の調整がより重要であると論じている。
論文 参考訳(メタデータ) (2020-01-27T13:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。