論文の概要: The Shape of Explanations: A Topological Account of Rule-Based
Explanations in Machine Learning
- arxiv url: http://arxiv.org/abs/2301.09042v1
- Date: Sun, 22 Jan 2023 02:58:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:15:24.781565
- Title: The Shape of Explanations: A Topological Account of Rule-Based
Explanations in Machine Learning
- Title(参考訳): 説明の形状:機械学習における規則に基づく説明のトポロジ的考察
- Authors: Brett Mullins
- Abstract要約: 本稿では,ルールに基づく説明手法の枠組みを導入し,説明可能性の評価を行う。
好みのスキームは、ユーザがドメインについてどれだけ知っているかと、特徴空間上の確率測度に依存すると我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rule-based explanations provide simple reasons explaining the behavior of
machine learning classifiers at given points in the feature space. Several
recent methods (Anchors, LORE, etc.) purport to generate rule-based
explanations for arbitrary or black-box classifiers. But what makes these
methods work in general? We introduce a topological framework for rule-based
explanation methods and provide a characterization of explainability in terms
of the definability of a classifier relative to an explanation scheme. We
employ this framework to consider various explanation schemes and argue that
the preferred scheme depends on how much the user knows about the domain and
the probability measure over the feature space.
- Abstract(参考訳): ルールに基づく説明は、特徴空間の所定の点における機械学習分類器の振る舞いを説明する簡単な理由を提供する。
いくつかの最近の手法(Anchors, LOREなど)は、任意またはブラックボックス分類器のルールベースの説明を生成する。
しかし、これらの方法が一般的に機能する理由は何ですか?
ルールに基づく説明手法のトポロジ的フレームワークを導入し、説明スキームに対する分類器の定義可能性の観点から説明可能性の評価を行う。
この枠組みを用いて、様々な説明スキームを考察し、ユーザがドメインについてどの程度知っているか、特徴空間上の確率測度に依存すると論じる。
関連論文リスト
- Selective Explanations [14.312717332216073]
機械学習モデルは、1つの推論だけで特徴属性スコアを予測するために訓練される。
その効率にもかかわらず、償却された説明者は不正確な予測や誤解を招く説明を生み出すことができる。
そこで本稿では,低品質な説明文を生成する際の特徴帰属手法である選択的説明文を提案する。
論文 参考訳(メタデータ) (2024-05-29T23:08:31Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Zero-Shot Classification by Logical Reasoning on Natural Language
Explanations [56.42922904777717]
我々はCLOREフレームワークを提案する(説明の論理的推論による分類)。
CLOREは、説明を論理構造にパースし、入力のthess構造に沿って明示的に理由付け、分類スコアを生成する。
また、我々のフレームワークは視覚的モダリティのゼロショット分類にまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-11-07T01:05:11Z) - Computing Rule-Based Explanations of Machine Learning Classifiers using
Knowledge Graphs [62.997667081978825]
我々は、機械学習分類器の動作を説明する用語を提供する基盤となるフレームワークとして知識グラフを使用している。
特に,知識グラフの用語で表される一階述語論理規則の形で,ブラックボックスの説明を抽出し,表現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T16:21:49Z) - Topological Representations of Local Explanations [8.559625821116454]
局所的な説明の集合から単純化された表現を抽出するトポロジに基づくフレームワークを提案する。
我々のフレームワークは、説明可能性技術の違いを確実に識別できるだけでなく、安定した表現も提供できることを実証する。
論文 参考訳(メタデータ) (2022-01-06T17:46:45Z) - To trust or not to trust an explanation: using LEAF to evaluate local
linear XAI methods [0.0]
実際に説明を定量的に評価する方法については合意がない。
説明は一般にブラックボックスモデルの検査にのみ使用され、意思決定支援としての説明の積極的な使用は一般的に見過ごされる。
XAIへの多くのアプローチのうち、広く採用されているパラダイムは、局所線形説明(Local Linear Explanations)である。
これらの手法は不安定な説明、約束された理論特性からの実際の実装のばらつき、間違ったラベルの説明など、多くの欠陥に悩まされている。
これは標準的かつ偏見のない評価手順の必要性を強調している。
論文 参考訳(メタデータ) (2021-06-01T13:14:12Z) - Convex optimization for actionable \& plausible counterfactual
explanations [9.104557591459283]
透明性は、現実世界でデプロイされる機械学習ベースの意思決定システムにとって不可欠な要件です。
反事実的説明は、意思決定システムの特に直感的な説明の顕著な例である。
本研究は, 動作可能性と信頼性を確保するメカニズムにより, 反事実的説明を計算するための凸モデリングの先行研究を強化する。
論文 参考訳(メタデータ) (2021-05-17T06:33:58Z) - Explanation from Specification [3.04585143845864]
我々は、説明のタイプが仕様によって導かれるアプローチを定式化する。
議論理論を用いたベイズ的ネットワークの説明とグラフニューラルネットワークの説明の2つの例について論じる。
このアプローチは科学哲学における説明理論に動機付けられており、機械学習の役割に関する科学哲学における現在の疑問と関連づけられている。
論文 参考訳(メタデータ) (2020-12-13T23:27:48Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。