論文の概要: Fighting the disagreement in Explainable Machine Learning with consensus
- arxiv url: http://arxiv.org/abs/2307.01288v1
- Date: Mon, 3 Jul 2023 18:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 19:14:29.452411
- Title: Fighting the disagreement in Explainable Machine Learning with consensus
- Title(参考訳): 説明可能な機械学習における不一致と合意
- Authors: Antonio Jesus Banegas-Luna, Carlos Mart{\i}nez-Cortes, Horacio
Perez-Sanchez
- Abstract要約: 機械学習モデルの内部動作は、その正確さと同程度に関連しています。
解釈可能性アルゴリズムは、しばしばモデルの説明に異を唱え、矛盾する説明につながる。
この問題に対処するために、モデルが説明されるとコンセンサス関数を適用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) models are often valued by the accuracy of their
predictions. However, in some areas of science, the inner workings of models
are as relevant as their accuracy. To understand how ML models work internally,
the use of interpretability algorithms is the preferred option. Unfortunately,
despite the diversity of algorithms available, they often disagree in
explaining a model, leading to contradictory explanations. To cope with this
issue, consensus functions can be applied once the models have been explained.
Nevertheless, the problem is not completely solved because the final result
will depend on the selected consensus function and other factors. In this
paper, six consensus functions have been evaluated for the explanation of five
ML models. The models were previously trained on four synthetic datasets whose
internal rules were known in advance. The models were then explained with
model-agnostic local and global interpretability algorithms. Finally, consensus
was calculated with six different functions, including one developed by the
authors. The results demonstrated that the proposed function is fairer than the
others and provides more consistent and accurate explanations.
- Abstract(参考訳): 機械学習(ML)モデルは、しばしば予測の正確さによって評価される。
しかし、いくつかの科学分野では、モデルの内部動作はその正確さと同じくらい関連性がある。
MLモデルの内部動作を理解するために、解釈可能性アルゴリズムの使用が望ましい選択肢である。
残念ながら、利用可能なアルゴリズムの多様性にもかかわらず、彼らはしばしばモデルを説明することに同意せず、矛盾した説明に繋がる。
この問題に対処するために、モデルが説明されるとコンセンサス関数を適用することができる。
しかしながら、最終結果は選択されたコンセンサス関数やその他の要因に依存するため、問題は完全には解決されない。
本稿では,5つのMLモデルを説明するために,6つのコンセンサス関数を評価した。
このモデルは、前もって内部ルールが知られていた4つの合成データセットでトレーニングされていた。
モデルは、モデルに依存しないローカルおよびグローバル解釈可能性アルゴリズムで説明された。
最後に、コンセンサスは著者らが開発したものを含む6つの異なる関数で計算された。
その結果,提案関数は他の関数よりも公平であり,より一貫性と正確な説明が得られた。
関連論文リスト
- Action Model Learning with Guarantees [5.524804393257921]
本研究では,学習例と整合した仮説の探索としてタスクを解釈するバージョン空間に基づく行動モデル学習の理論を開発する。
我々の理論的発見は、問題のすべての解のコンパクトな表現を維持するオンラインアルゴリズムでインスタンス化される。
論文 参考訳(メタデータ) (2024-04-15T10:01:43Z) - Explanation-by-Example Based on Item Response Theory [0.0]
本研究は, 項目応答理論(IRT)を, モデルを説明し, 説明による信頼性のレベルを測定するためのツールとして検討する。
テストセットからすると、83.8%のエラーはIRTがモデルを信頼できないと指摘しているインスタンスからのものである。
論文 参考訳(メタデータ) (2022-10-04T14:36:33Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Partial Order in Chaos: Consensus on Feature Attributions in the
Rashomon Set [50.67431815647126]
ポストホックなグローバル/ローカルな特徴属性法は、機械学習モデルを理解するために徐々に採用されている。
この手法により局所的・言語的特徴の半順序が生じることを示す。
これらの部分的な順序に現れる特徴間の関係は、既存のアプローチによって提供されたランクにも当てはまることを示す。
論文 参考訳(メタデータ) (2021-10-26T02:53:14Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - To what extent do human explanations of model behavior align with actual
model behavior? [91.67905128825402]
モデル推論決定の人間による説明が、モデルが実際にこれらの決定を下す方法と一致する程度を調べた。
自然言語の人間の説明が入力語に対するモデル感度とどのように一致するかを定量化する2つのアライメント指標を定義した。
モデルと人間の説明との整合は、NLI上のモデルの精度によって予測されないことが判明した。
論文 参考訳(メタデータ) (2020-12-24T17:40:06Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。