論文の概要: On the Complexity of Global Necessary Reasons to Explain Classification
- arxiv url: http://arxiv.org/abs/2501.06766v1
- Date: Sun, 12 Jan 2025 10:25:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:25:34.931142
- Title: On the Complexity of Global Necessary Reasons to Explain Classification
- Title(参考訳): 説明的分類のための大域的必要条件の複雑さについて
- Authors: Marco Calautti, Enrico Malizia, Cristian Molinaro,
- Abstract要約: 説明可能なAIは近年,AIシステムによる決定や予測の背後にある理由を理解することが,採用の成功に不可欠であることから,大きな注目を集めている。
本稿では,グローバルな説明に焦点をあて,分類器が特定のクラスをジェネリックインスタンスに割り当てるために必要な最小限の条件で分類を説明する。
- 参考スコア(独自算出の注目度): 10.007636884318801
- License:
- Abstract: Explainable AI has garnered considerable attention in recent years, as understanding the reasons behind decisions or predictions made by AI systems is crucial for their successful adoption. Explaining classifiers' behavior is one prominent problem. Work in this area has proposed notions of both local and global explanations, where the former are concerned with explaining a classifier's behavior for a specific instance, while the latter are concerned with explaining the overall classifier's behavior regardless of any specific instance. In this paper, we focus on global explanations, and explain classification in terms of ``minimal'' necessary conditions for the classifier to assign a specific class to a generic instance. We carry out a thorough complexity analysis of the problem for natural minimality criteria and important families of classifiers considered in the literature.
- Abstract(参考訳): 説明可能なAIは近年,AIシステムによる決定や予測の背後にある理由を理解することが,採用の成功に不可欠であることから,大きな注目を集めている。
分類者の振る舞いを説明することは顕著な問題である。
この領域での作業は、局所的および大域的説明の両方の概念を提案しており、前者は特定の事例に対する分類者の振る舞いを説明することに関心を持ち、後者は特定の事例によらず全体的分類者の振る舞いを説明することに関心がある。
本稿では,グローバルな説明に焦点をあて,特定のクラスをジェネリックインスタンスに割り当てるための分類器に必要な「最小」条件で分類を説明する。
本稿では, 自然最小性基準問題と, 文献で考慮された重要な分類器群について, 難解な複雑性解析を行う。
関連論文リスト
- CohEx: A Generalized Framework for Cohort Explanation [5.269665407562217]
コホートの説明は、特定のグループや事例のコホートにおける説明者の振る舞いに関する洞察を与える。
本稿では,コホートの説明を測る上でのユニークな課題と機会について論じる。
論文 参考訳(メタデータ) (2024-10-17T03:36:18Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Attri-Net: A Globally and Locally Inherently Interpretable Model for Multi-Label Classification Using Class-Specific Counterfactuals [4.384272169863716]
高度な医療応用において、解釈可能性は機械学習アルゴリズムにとって不可欠である。
Attri-Netは、ローカルおよびグローバルな説明を提供するマルチラベル分類の本質的に解釈可能なモデルである。
論文 参考訳(メタデータ) (2024-06-08T13:52:02Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Interpretability in the Wild: a Circuit for Indirect Object
Identification in GPT-2 small [68.879023473838]
間接オブジェクト識別 (IOI) と呼ばれる自然言語タスクにおいて, GPT-2 の小型化が果たす役割について解説する。
我々の知る限り、この調査は言語モデルにおいて「野生」の自然な振る舞いをリバースエンジニアリングする最大のエンドツーエンドの試みである。
論文 参考訳(メタデータ) (2022-11-01T17:08:44Z) - Feature Necessity & Relevancy in ML Classifier Explanations [5.232306238197686]
機械学習(ML)モデルと予測が与えられた場合、説明は予測に十分な機能のセットとして定義することができる。
また、ある説明においてセンシティブな特徴が生じるのか、またはすべての説明において興味のない特徴が生じる必要があるのかを理解することも重要である。
論文 参考訳(メタデータ) (2022-10-27T12:12:45Z) - Is Attention Interpretation? A Quantitative Assessment On Sets [0.0]
集合機械学習の文脈における注意の解釈可能性について検討する。
注意分布は、個々のインスタンスの相対的な重要性を反映していることが多い。
我々は、注意に基づく説明を誤解させるリスクを最小限に抑えるためにアンサンブルを使うことを提案する。
論文 参考訳(メタデータ) (2022-07-26T16:25:38Z) - Effect Identification in Cluster Causal Diagrams [51.42809552422494]
クラスタ因果図(略してC-DAG)と呼ばれる新しいタイプのグラフィカルモデルを導入する。
C-DAGは、限定された事前知識に基づいて変数間の関係を部分的に定義することができる。
我々はC-DAGに対する因果推論のための基礎と機械を開発する。
論文 参考訳(メタデータ) (2022-02-22T21:27:31Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z) - A general approach to compute the relevance of middle-level input
features [0.0]
ミドルレベルの説明は、いくつかの低レベルの説明の欠陥を軽減するために導入された。
MLモデル応答を尊重する中レベル説明の要素を正しく評価するための一般的なアプローチは、文献では提案されていない。
論文 参考訳(メタデータ) (2020-10-16T21:46:50Z) - Evaluations and Methods for Explanation through Robustness Analysis [117.7235152610957]
分析による特徴に基づく説明の新たな評価基準を確立する。
我々は、緩やかに必要であり、予測に十分である新しい説明を得る。
我々は、現在の予測をターゲットクラスに移動させる一連の特徴を抽出するために、説明を拡張します。
論文 参考訳(メタデータ) (2020-05-31T05:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。