論文の概要: An ASP-Based Approach to Counterfactual Explanations for Classification
- arxiv url: http://arxiv.org/abs/2004.13237v2
- Date: Tue, 16 Jun 2020 03:56:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:33:12.679023
- Title: An ASP-Based Approach to Counterfactual Explanations for Classification
- Title(参考訳): aspに基づく分類の相反的説明のアプローチ
- Authors: Leopoldo Bertossi
- Abstract要約: 本稿では,因果関係に基づく分類モデルに基づく意思決定の基盤として,反実的介入を規定し,計算する解集合プログラムを提案する。
ルールベースの分類器のような論理プログラムとして指定できるブラックボックスモデルやモデルに適用することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose answer-set programs that specify and compute counterfactual
interventions as a basis for causality-based explanations to decisions produced
by classification models. They can be applied with black-box models and models
that can be specified as logic programs, such as rule-based classifiers. The
main focus in on the specification and computation of maximum responsibility
causal explanations. The use of additional semantic knowledge is investigated.
- Abstract(参考訳): 本稿では,因果関係に基づく分類モデルに基づく意思決定の基盤として,反実的介入を規定し,計算する解集合プログラムを提案する。
ルールベースの分類器のような論理プログラムとして指定できるブラックボックスモデルやモデルに適用することができる。
主な焦点は、最大責任因果説明の仕様と計算である。
追加のセマンティック知識の使用について検討する。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Reasoning about Counterfactuals and Explanations: Problems, Results and
Directions [0.0]
これらのアプローチは柔軟でモジュール化されており、ドメイン知識のシームレスな追加を可能にします。
プログラムは、責任に基づく数値スコアを分類結果の属性的説明として指定し、計算するために使用することができる。
論文 参考訳(メタデータ) (2021-08-25T01:04:49Z) - Answer-Set Programs for Reasoning about Counterfactual Interventions and
Responsibility Scores for Classification [0.0]
本稿では,分類対象のエンティティに対する対実的介入を宣言的に特定するために,回答セットプログラムをどのように利用できるかを説明する。
特に、責任スコアを分類モデルの結果に対する属性に基づく説明として定義し、計算するために使用することができる。
論文 参考訳(メタデータ) (2021-07-21T15:41:56Z) - Score-Based Explanations in Data Management and Machine Learning: An
Answer-Set Programming Approach to Counterfactual Analysis [0.0]
本稿では,データベースにおける問合せ回答のスコアベース説明に対する最近のアプローチと,機械学習における分類モデルによる結果について述べる。
スコアの仕様と計算に反実的推論を使うことに対する、応答セットプログラミングに基づく宣言的アプローチに特に重点を置いている。
論文 参考訳(メタデータ) (2021-06-19T19:21:48Z) - Declarative Approaches to Counterfactual Explanations for Classification [0.0]
本稿では,分類モデル上で入力されたエンティティに対する対実的介入を規定し,計算する解集合プログラムを提案する。
結果として生じるカウンターファクト的エンティティは、分類されたエンティティの特徴値に対する因果関係に基づく説明スコアの定義と計算の基盤となる。
論文 参考訳(メタデータ) (2020-11-15T00:44:33Z) - Score-Based Explanations in Data Management and Machine Learning [0.0]
本稿では,データベースにおける問合せ応答と分類モデルによる結果について考察する。
説明されているアプローチは、主に因果的かつ反事実的な性質である。
論文 参考訳(メタデータ) (2020-07-24T23:13:27Z) - Marginal likelihood computation for model selection and hypothesis
testing: an extensive review [66.37504201165159]
この記事では、このトピックの最先端に関する総合的な研究について紹介する。
さまざまなテクニックの制限、メリット、コネクション、差異を強調します。
また、不適切な事前利用の問題や解決法についても述べる。
論文 参考訳(メタデータ) (2020-05-17T18:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。