論文の概要: Counterfactual Explanations as Interventions in Latent Space
- arxiv url: http://arxiv.org/abs/2106.07754v1
- Date: Mon, 14 Jun 2021 20:48:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 08:17:20.622603
- Title: Counterfactual Explanations as Interventions in Latent Space
- Title(参考訳): 潜在空間における干渉としての対物的説明
- Authors: Riccardo Crupi, Alessandro Castelnovo, Daniele Regoli, Beatriz San
Miguel Gonzalez
- Abstract要約: 反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) is a set of techniques that allows
the understanding of both technical and non-technical aspects of Artificial
Intelligence (AI) systems. XAI is crucial to help satisfying the increasingly
important demand of \emph{trustworthy} Artificial Intelligence, characterized
by fundamental characteristics such as respect of human autonomy, prevention of
harm, transparency, accountability, etc. Within XAI techniques, counterfactual
explanations aim to provide to end users a set of features (and their
corresponding values) that need to be changed in order to achieve a desired
outcome. Current approaches rarely take into account the feasibility of actions
needed to achieve the proposed explanations, and in particular they fall short
of considering the causal impact of such actions. In this paper, we present
Counterfactual Explanations as Interventions in Latent Space (CEILS), a
methodology to generate counterfactual explanations capturing by design the
underlying causal relations from the data, and at the same time to provide
feasible recommendations to reach the proposed profile. Moreover, our
methodology has the advantage that it can be set on top of existing
counterfactuals generator algorithms, thus minimising the complexity of
imposing additional causal constrains. We demonstrate the effectiveness of our
approach with a set of different experiments using synthetic and real datasets
(including a proprietary dataset of the financial domain).
- Abstract(参考訳): 説明可能な人工知能(XAI)は、人工知能(AI)システムの技術的側面と非技術的側面の両方を理解するための一連の技術である。
XAIは、人間の自律性、害の予防、透明性、説明責任などの基本的な特徴を特徴とする「emph{trustworthy} Artificial Intelligence」のますます重要な需要を満たすために不可欠である。
XAI技術では、デファクト的な説明は、エンドユーザに望ましい結果を達成するために変更が必要な機能(とその対応する値)セットを提供することを目的としています。
現在のアプローチでは、提案された説明の達成に必要な行動の実現可能性を考慮することはめったになく、特にそのような行動の因果的影響を考慮しない。
本稿では,データから因果関係を設計し,かつ,提案したプロファイルに到達するための実用的なレコメンデーションを提供する手法として,潜伏空間における干渉としての対実的説明(CEILS)を提案する。
さらに,提案手法は,既存のファクトファクトジェネレータアルゴリズム上に設定できるという利点があり,因果制約を課すことの複雑さを最小限に抑えることができる。
提案手法の有効性を,合成データセットと実データ(金融ドメインの独自データセットを含む)を用いて異なる実験群を用いて実証する。
関連論文リスト
- A Hypothesis on Good Practices for AI-based Systems for Financial Time
Series Forecasting: Towards Domain-Driven XAI Methods [0.0]
機械学習とディープラーニングは、財務予測や予測タスクでますます普及している。
これらのモデルは透明性と解釈可能性に欠けることが多く、金融のような繊細なドメインでの使用を困難にしている。
本稿では、金融のためのAIベースのシステムに説明可能性を展開するための優れた実践について考察する。
論文 参考訳(メタデータ) (2023-11-13T17:56:45Z) - An Information Bottleneck Characterization of the Understanding-Workload
Tradeoff [15.90243405031747]
説明可能なAI(XAI)設計において、説明の有効性に影響を及ぼす人的要因の考察が重要である。
XAIの既存の作業は、さまざまなタイプの説明によって引き起こされる理解と作業負荷のトレードオフを実証している。
論文 参考訳(メタデータ) (2023-10-11T18:35:26Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - A New Perspective on Evaluation Methods for Explainable Artificial
Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:15:44Z) - Revisiting the Performance-Explainability Trade-Off in Explainable
Artificial Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:07:40Z) - Adaptive cognitive fit: Artificial intelligence augmented management of
information facets and representations [62.997667081978825]
ビッグデータ技術と人工知能(AI)応用の爆発的な成長は、情報ファセットの普及に繋がった。
等角性や正確性などの情報フェートは、情報に対する人間の認識を支配的かつ著しく左右する。
認知の限界を克服するために情報表現を適応できる人工知能技術が必要であることを示唆する。
論文 参考訳(メタデータ) (2022-04-25T02:47:25Z) - Towards a Shapley Value Graph Framework for Medical peer-influence [0.9449650062296824]
本稿では,機能間相互作用のグラフ表現を用いた説明を深く研究する新しい枠組みを提案する。
ブラックボックス機械学習(ML)モデルの解釈可能性を改善し、介入を通知することを目的としている。
論文 参考訳(メタデータ) (2021-12-29T16:24:50Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。