論文の概要: Explainable AI with counterfactual paths
- arxiv url: http://arxiv.org/abs/2307.07764v2
- Date: Mon, 24 Jul 2023 13:00:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 20:04:53.738523
- Title: Explainable AI with counterfactual paths
- Title(参考訳): 反ファクトパスを持つ説明可能なAI
- Authors: Bastian Pfeifer, Mateusz Krzyzinski, Hubert Baniecki, Anna Saranti,
Andreas Holzinger, Przemyslaw Biecek
- Abstract要約: 我々は、説明可能なAI(XAI)に対する新しいアプローチを提案する。
提案手法は, 異なる結果をもたらす可能性のある代替経路を同定することによって, 対実的な説明を提供する。
私たちのアプローチでは、従来の特徴重み付け手法よりも直感的で解釈可能なモデル動作の説明を提供しています。
- 参考スコア(独自算出の注目度): 5.930734371401315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) is an increasingly important area of research in machine
learning, which in principle aims to make black-box models transparent and
interpretable. In this paper, we propose a novel approach to XAI that uses
counterfactual paths generated by conditional permutations. Our method provides
counterfactual explanations by identifying alternative paths that could have
led to different outcomes. The proposed method is particularly suitable for
generating explanations based on counterfactual paths in knowledge graphs. By
examining hypothetical changes to the input data in the knowledge graph, we can
systematically validate the behaviour of the model and examine the features or
combination of features that are most important to the model's predictions. Our
approach provides a more intuitive and interpretable explanation for the
model's behaviour than traditional feature weighting methods and can help
identify and mitigate biases in the model.
- Abstract(参考訳): 説明可能なai(xai)は、マシンラーニングにおけるますます重要な研究分野であり、基本的にはブラックボックスモデルを透明かつ解釈可能にすることを目的としている。
本稿では,条件付き順列によって生成された逆実効経路を用いた新しいXAI手法を提案する。
提案手法は, 異なる結果をもたらす可能性のある経路を識別することで, 反事実的説明を提供する。
提案手法は知識グラフの反実的経路に基づく説明を生成するのに特に適している。
ナレッジグラフの入力データに対する仮定的な変化を調べることで、モデルの振る舞いを体系的に検証し、モデルの予測に最も重要な特徴の特徴や組み合わせを調べることができる。
我々のアプローチは、従来の特徴重み付け手法よりもモデルの振る舞いをより直感的で解釈可能な説明を提供し、モデルのバイアスを特定し緩和するのに役立ちます。
関連論文リスト
- From Latent to Lucid: Transforming Knowledge Graph Embeddings into Interpretable Structures [2.6451388057494283]
本稿では,知識グラフ埋め込みモデルに適したポストホックな説明可能なAI手法を提案する。
本手法は,知識グラフ埋め込みモデルによって符号化された潜在表現を直接デコードする。
類似した埋め込みエンティティのサブグラフ近傍の異なる構造を識別することにより、これらの知見を人間の理解可能な象徴的ルールや事実に変換する。
論文 参考訳(メタデータ) (2024-06-03T19:54:11Z) - Enhancing Counterfactual Image Generation Using Mahalanobis Distance with Distribution Preferences in Feature Space [7.00851481261778]
人工知能(AI)の領域では、説明可能な人工知能(XAI)の重要性がますます認識されている。
1つの注目すべきシングルインスタンスXAIアプローチは、モデルの決定を理解するのに役立つ、反ファクトな説明である。
本稿では,ブラックボックスモデルの特徴空間における特徴量の重要性を計算するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T08:26:53Z) - Interaction as Explanation: A User Interaction-based Method for Explaining Image Classification Models [1.3597551064547502]
コンピュータビジョンでは、説明可能なAI(xAI)手法は「ブラックボックス」問題を緩和しようとする。
従来のxAI手法は、モデル予測に影響を与える入力特徴の可視化に重点を置いている。
本稿では,画像分類モデルのユーザ理解を深めるインタラクションベースのxAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-15T14:26:00Z) - Explanations of Black-Box Models based on Directional Feature
Interactions [8.25114410474287]
有向グラフにおける特徴的相互作用を捉えることによって,ブラックボックスモデルの説明方法を示す。
IMDB10, Census, Divorce, Drug, および遺伝子データに対して, 本手法の優位性を示す。
論文 参考訳(メタデータ) (2023-04-16T02:00:25Z) - Visualizing Transferred Knowledge: An Interpretive Model of Unsupervised
Domain Adaptation [70.85686267987744]
教師なしのドメイン適応問題は、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することができる。
本稿では、翻訳された知識の謎を視覚的に明らかにする最初の試みとして、教師なしドメイン適応の解釈モデルを提案する。
提案手法は,ベースモデルの予測を直感的に説明し,画像パッチをソースドメインとターゲットドメインの両方で同一のセマンティクスとマッチングすることで伝達知識を公開する。
論文 参考訳(メタデータ) (2023-03-04T03:02:12Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Quasi Black-Box Variational Inference with Natural Gradients for
Bayesian Learning [84.90242084523565]
複素モデルにおけるベイズ学習に適した最適化アルゴリズムを開発した。
我々のアプローチは、モデル固有導出に制限のある効率的なトレーニングのための一般的なブラックボックスフレームワーク内の自然な勾配更新に依存している。
論文 参考訳(メタデータ) (2022-05-23T18:54:27Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Towards a Shapley Value Graph Framework for Medical peer-influence [0.9449650062296824]
本稿では,機能間相互作用のグラフ表現を用いた説明を深く研究する新しい枠組みを提案する。
ブラックボックス機械学習(ML)モデルの解釈可能性を改善し、介入を通知することを目的としている。
論文 参考訳(メタデータ) (2021-12-29T16:24:50Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。