論文の概要: Feature Necessity & Relevancy in ML Classifier Explanations
- arxiv url: http://arxiv.org/abs/2210.15675v1
- Date: Thu, 27 Oct 2022 12:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:32:26.746361
- Title: Feature Necessity & Relevancy in ML Classifier Explanations
- Title(参考訳): ML分類における特徴の必要性と関連性
- Authors: Xuanxiang Huang, Martin C. Cooper, Antonio Morgado, Jordi Planes, Joao
Marques-Silva
- Abstract要約: 機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
また、ある説明においてセンシティブな特徴が生じるのか、またはすべての説明において興味のない特徴が生じる必要があるのかを理解することも重要である。
- 参考スコア(独自算出の注目度): 5.232306238197686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a machine learning (ML) model and a prediction, explanations can be
defined as sets of features which are sufficient for the prediction. In some
applications, and besides asking for an explanation, it is also critical to
understand whether sensitive features can occur in some explanation, or whether
a non-interesting feature must occur in all explanations. This paper starts by
relating such queries respectively with the problems of relevancy and necessity
in logic-based abduction. The paper then proves membership and hardness results
for several families of ML classifiers. Afterwards the paper proposes concrete
algorithms for two classes of classifiers. The experimental results confirm the
scalability of the proposed algorithms.
- Abstract(参考訳): 機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
一部のアプリケーションでは、あるいは説明を求めるだけでなく、ある説明でセンシティブな機能が発生するのか、あるいはすべての説明で非関心機能が発生するのかを理解することが重要である。
本稿では,論理に基づく推論における関連性の問題と必要性をそれぞれ関連付けることから始める。
この論文は、ml分類器のいくつかのファミリーのメンバーシップとハードネスの結果を証明する。
その後,2種類の分類器の具体的なアルゴリズムを提案する。
実験により提案アルゴリズムのスケーラビリティを確認した。
関連論文リスト
- Pyreal: A Framework for Interpretable ML Explanations [51.14710806705126]
Pyrealは、さまざまな解釈可能な機械学習説明を生成するシステムである。
Pyrealは、モデルによって期待される機能空間、関連する説明アルゴリズム、および人間のユーザ間でデータと説明を変換する。
我々の研究は、Pyrealが既存のシステムよりも有用な説明を生成することを示した。
論文 参考訳(メタデータ) (2023-12-20T15:04:52Z) - On Logic-Based Explainability with Partially Specified Inputs [1.7587442088965224]
機械学習(ML)モデルのトレーニングでは、データの欠落がしばしば対処される。
しかし、予測を決定するときにも、それらの予測を説明するときにも、欠落したデータに対処する必要がある。
本稿では,部分的な入力が存在する場合の論理的説明の計算について検討する。
論文 参考訳(メタデータ) (2023-06-27T21:09:25Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - On Computing Probabilistic Abductive Explanations [30.325691263226968]
最も広く研究されているAI(XAI)アプローチは正しくない。
PI説明は重要な欠点も示しており、最も目に見えるものはおそらくその大きさである。
本稿では,多くの広く使用されている分類器に対して,関連する集合を計算するための実践的アプローチについて検討する。
論文 参考訳(メタデータ) (2022-12-12T15:47:10Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - What Makes a Good Explanation?: A Harmonized View of Properties of Explanations [22.752085594102777]
解釈可能性(Interpretability)は、機械学習(ML)モデルの側面を検証する手段を提供する。
異なる文脈は異なる性質を持つ説明を必要とする。
説明の性質に関しては標準化の欠如がある。
論文 参考訳(メタデータ) (2022-11-10T16:04:28Z) - On Deciding Feature Membership in Explanations of SDD & Related
Classifiers [0.685316573653194]
この論文は、幅広い分類器のクラスに対してSigmaP$に対して、特徴メンバシップ問題(FMP)が難しいことを示している。
本稿では,SDD(Sentential Decision Diagrams)と他の命題言語に代表される分類器の命題符号化を提案する。
論文 参考訳(メタデータ) (2022-02-15T16:38:53Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Probabilistic Sufficient Explanations [31.08715352013011]
確率論的に十分な説明を導入し、分類の例を特徴の「最も単純な」部分集合を選ぶものとして記述する。
保証をそのまま保ちつつ、所望の説明を見つけるためのスケーラブルなアルゴリズムを設計する。
本実験は, 十分な説明を求める上でのアルゴリズムの有効性を実証し, アンカーや論理的説明と比較して, その優位性を示すものである。
論文 参考訳(メタデータ) (2021-05-21T04:03:10Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。