論文の概要: Can I Trust the Explanations? Investigating Explainable Machine Learning
Methods for Monotonic Models
- arxiv url: http://arxiv.org/abs/2309.13246v1
- Date: Sat, 23 Sep 2023 03:59:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-09-26 21:14:01.611718
- Title: Can I Trust the Explanations? Investigating Explainable Machine Learning
Methods for Monotonic Models
- Title(参考訳): 説明を信用できますか。
単調モデルのための説明可能な機械学習法の検討
- Authors: Dangxing Chen
- Abstract要約: ほとんどの説明可能な機械学習手法は、ドメイン知識のないブラックボックスモデルに適用される。
ドメイン知識を取り入れることで、科学インフォームド機械学習モデルはより優れた一般化と解釈を示してきた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, explainable machine learning methods have been very
successful. Despite their success, most explainable machine learning methods
are applied to black-box models without any domain knowledge. By incorporating
domain knowledge, science-informed machine learning models have demonstrated
better generalization and interpretation. But do we obtain consistent
scientific explanations if we apply explainable machine learning methods to
science-informed machine learning models? This question is addressed in the
context of monotonic models that exhibit three different types of monotonicity.
To demonstrate monotonicity, we propose three axioms. Accordingly, this study
shows that when only individual monotonicity is involved, the baseline Shapley
value provides good explanations; however, when strong pairwise monotonicity is
involved, the Integrated gradients method provides reasonable explanations on
average.
- Abstract(参考訳): 近年、説明可能な機械学習手法は非常に成功している。
その成功にもかかわらず、最も説明可能な機械学習手法は、ドメイン知識のないブラックボックスモデルに適用される。
ドメイン知識を取り入れることで、科学インフォームド機械学習モデルはより良い一般化と解釈を示してきた。
しかし、説明可能な機械学習手法を理科学習モデルに適用すれば、一貫した科学的説明が得られるだろうか?
この問題は、3種類の異なる単調性を示す単調模型の文脈で解決される。
単調性を示すために、3つの公理を提案する。
したがって, 個々の単調性のみが関与する場合, ベースラインシャプリー値がよい説明を与えるが, 強い一調性が関与する場合には, 積分勾配法が平均値について合理的な説明を与える。
関連論文リスト
- Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Explaining Natural Language Processing Classifiers with Occlusion and
Language Modeling [4.9342793303029975]
自然言語処理分類のための新しい説明手法 OLM を提案する。
OLMは理論的に健全で理解しやすい説明を与える。
我々は,説明法の理論にいくつかの貢献をしている。
論文 参考訳(メタデータ) (2021-01-28T09:44:04Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Counterfactual explanation of machine learning survival models [5.482532589225552]
その結果, 線形制約を伴う標準凸最適化問題に, 逆実説明問題を還元できることが示唆された。
他のブラックボックスモデルでは、よく知られたParticle Swarm Optimizationアルゴリズムを適用することが提案されている。
論文 参考訳(メタデータ) (2020-06-26T19:46:47Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。