論文の概要: Explaining $\mathcal{ELH}$ Concept Descriptions through Counterfactual
Reasoning
- arxiv url: http://arxiv.org/abs/2301.05109v2
- Date: Wed, 4 Oct 2023 14:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 22:42:43.230943
- Title: Explaining $\mathcal{ELH}$ Concept Descriptions through Counterfactual
Reasoning
- Title(参考訳): 反事実推論による$\mathcal{elh}$概念記述の説明
- Authors: Leonie Nora Sieger, Stefan Heindorf, Yasir Mahmood, Lukas Bl\"ubaum,
Axel-Cyrille Ngonga Ngomo
- Abstract要約: 分類を本質的に透過的に行う方法は、記述論理の概念を使用することである。
一つの解決策は、「異なる分類を得るために特徴値をどう変えなければならないか」という疑問に答えるために反事実を用いることである。
- 参考スコア(独自算出の注目度): 3.5323691899538128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge bases are widely used for information management, enabling
high-impact applications such as web search, question answering, and natural
language processing. They also serve as the backbone for automatic decision
systems, e.g., for medical diagnostics and credit scoring. As stakeholders
affected by these decisions would like to understand their situation and verify
how fair the decisions are, a number of explanation approaches have been
proposed. An intrinsically transparent way to do classification is by using
concepts in description logics. However, these concepts can become long and
difficult to fathom for non-experts, even when verbalized. One solution is to
employ counterfactuals to answer the question, ``How must feature values be
changed to obtain a different classification?'' By focusing on the minimal
feature changes, the explanations are short, human-friendly, and provide a
clear path of action regarding the change in prediction. While previous work
investigated counterfactuals for tabular data, in this paper, we transfer the
notion of counterfactuals to knowledge bases and the description logic
$\mathcal{ELH}$. Our approach starts by generating counterfactual candidates
from concepts, followed by selecting the candidates requiring the fewest
feature changes as counterfactuals. When multiple counterfactuals exist, we
rank them based on the likeliness of their feature combinations. We evaluate
our method by conducting a user survey to determine which counterfactual
candidates participants prefer for explanation.
- Abstract(参考訳): 知識ベースは情報管理に広く使われており、Web検索、質問応答、自然言語処理などの高度なアプリケーションを可能にする。
また、医療診断や信用スコアなどの自動意思決定システムのバックボーンとしても機能している。
これらの決定によって影響を受ける利害関係者が自身の状況を理解し、その決定がどの程度公平であるかを確認するために、多くの説明アプローチが提案されている。
分類を行う本質的に透明な方法は、記述論理の概念を使用することである。
しかしながら、これらの概念は、言語化されても、非専門家にとって長くて難しいものになりうる。
一つの解決策は,「どのように特徴値を変えて異なる分類を得るか」という問いに答えるために,反事実を用いることである。最小限の機能変化に注目して,説明は短く,人間フレンドリで,予測の変化に関する明確な行動経路を提供する。
従来の研究は表型データに対する反事実について検討していたが,本論文では,反事実の概念を知識ベースと記述論理$\mathcal{ELH}$に置き換える。
提案手法は, 提案概念から, 最小限の機能変化を必要とする候補を候補として選択することから始まる。
複数のカウンターファクトが存在する場合、それらの特徴の組み合わせの類似性に基づいてそれらをランク付けする。
提案手法をユーザ調査によって評価し,どの候補が説明を好むかを判断する。
関連論文リスト
- Relevant Irrelevance: Generating Alterfactual Explanations for Image Classifiers [11.200613814162185]
本稿では,ブラックボックス画像分類器の再現的説明の実現可能性を示す。
ニューラルネットワークに基づくブラックボックスモデルにこのアイデアを適用することが可能であることを初めて示します。
論文 参考訳(メタデータ) (2024-05-08T11:03:22Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Motivating explanations in Bayesian networks using MAP-independence [0.0]
ベイズネットワークにおいて、診断や分類は、仮説変数に対する最も確率の高い合同値の割り当ての計算として形式化される。
本稿では,MAP独立の概念を新たに導入し,この概念の意義を捉える。
論文 参考訳(メタデータ) (2022-08-05T12:26:54Z) - Features of Explainability: How users understand counterfactual and
causal explanations for categorical and continuous features in XAI [10.151828072611428]
対物的説明は、AI決定の解釈可能性、レコメンデーション、バイアスに対処するためにますます使われています。
本研究では,ユーザ予測の客観的精度に対する反事実的・因果的説明の効果を検証した。
また, 利用者は, カテゴリー的特徴を参照する説明を, 連続的特徴を参照する説明よりも容易に理解できることがわかった。
論文 参考訳(メタデータ) (2022-04-21T15:01:09Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - SCOUT: Self-aware Discriminant Counterfactual Explanations [78.79534272979305]
対物的視覚的説明の問題点を考察する。
新しい差別的な説明の族が紹介される。
結果として生じる反実的な説明は、最適化が自由で、従って以前の方法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-16T17:05:49Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。