論文の概要: CFGs: Causality Constrained Counterfactual Explanations using goal-directed ASP
- arxiv url: http://arxiv.org/abs/2405.15956v1
- Date: Fri, 24 May 2024 21:47:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 01:49:07.233306
- Title: CFGs: Causality Constrained Counterfactual Explanations using goal-directed ASP
- Title(参考訳): CFGs:ゴール指向ASP.NETを使用した因果制約のある非現実的説明
- Authors: Sopam Dasgupta, Joaquín Arias, Elmer Salazar, Gopal Gupta,
- Abstract要約: 本稿では,CFG(CounterFactual Generation with s(CASP)を提案する。このフレームワークは,目標指向のAnswer Set Programming(ASP)システムs(CASP)を利用して,デファクトな説明を自動的に生成する。
CFGがこれらの世界、すなわち、望ましくない結果を得る最初の状態から、望まれる決定を得る想像された目標状態へどのようにナビゲートするかを示す。
- 参考スコア(独自算出の注目度): 1.5749416770494706
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning models that automate decision-making are increasingly used in consequential areas such as loan approvals, pretrial bail approval, and hiring. Unfortunately, most of these models are black boxes, i.e., they are unable to reveal how they reach these prediction decisions. A need for transparency demands justification for such predictions. An affected individual might also desire explanations to understand why a decision was made. Ethical and legal considerations require informing the individual of changes in the input attribute (s) that could be made to produce a desirable outcome. Our work focuses on the latter problem of generating counterfactual explanations by considering the causal dependencies between features. In this paper, we present the framework CFGs, CounterFactual Generation with s(CASP), which utilizes the goal-directed Answer Set Programming (ASP) system s(CASP) to automatically generate counterfactual explanations from models generated by rule-based machine learning algorithms in particular. We benchmark CFGs with the FOLD-SE model. Reaching the counterfactual state from the initial state is planned and achieved using a series of interventions. To validate our proposal, we show how counterfactual explanations are computed and justified by imagining worlds where some or all factual assumptions are altered/changed. More importantly, we show how CFGs navigates between these worlds, namely, go from our initial state where we obtain an undesired outcome to the imagined goal state where we obtain the desired decision, taking into account the causal relationships among features.
- Abstract(参考訳): 意思決定を自動化する機械学習モデルは、ローンの承認、プレトライアルの保釈承認、雇用など、連続した分野でますます使われている。
残念なことに、これらのモデルのほとんどはブラックボックスである。
このような予測を正当化する透明性の必要性。
影響を受けた個人は、なぜ決定が下されたのかを理解するために説明を求めるかもしれない。
倫理的および法的考察は、望ましい結果をもたらすことができる入力属性(s)の変化の個人に通知する必要がある。
本研究は,特徴間の因果関係を考慮し,反実的説明を生成する後者の問題に焦点をあてる。
本稿では,ルールベース機械学習アルゴリズムで生成したモデルから,目標指向型Answer Set Programming(ASP)システムs(CASP)を利用したCFG, CounterFactual Generation with s(CASP)を提案する。
CFGをFOLD-SEモデルでベンチマークする。
カウンターファクトの状態を初期状態から切り離すことは計画されており、一連の介入によって達成される。
提案手法を検証するために, 事実的仮定が変更/変更された世界を想像することで, 事実的説明がどう計算され, 正当化されるかを示す。
さらに重要なことは、CFGがこれらの世界の間をいかにナビゲートするかを示し、すなわち、望ましくない結果が得られる最初の状態から、望まれる決定が得られ、特徴間の因果関係を考慮に入れられる、想像された目標状態へと向かう。
関連論文リスト
- CoGS: Model Agnostic Causality Constrained Counterfactual Explanations using goal-directed ASP [1.5749416770494706]
CoGSはモデルに依存しないフレームワークであり、分類モデルの反実的な説明を生成することができる。
CoGSは、望ましい結果を達成するために必要な変更について、解釈可能かつ実行可能な説明を提供する。
論文 参考訳(メタデータ) (2024-10-30T00:43:01Z) - CoGS: Causality Constrained Counterfactual Explanations using goal-directed ASP [1.5749416770494706]
本稿では,ルールベース機械学習モデルから対物生成を行うCoGS(Counterfactual Generation with s(CASP))フレームワークを提案する。
CoGSは、それらの間の因果依存性を考慮した属性値に対する現実的かつ因果一貫性のある変更を計算します。
望ましくない結果から、偽物を使用する望ましい結果への道を見つける。
論文 参考訳(メタデータ) (2024-07-11T04:50:51Z) - Counterfactual Generation with Answer Set Programming [2.249916681499244]
事実的仮定が変更/変更された世界を想像することで、反事実的説明がどう計算され、正当化されるかを示す。
私たちのフレームワークでは、これらの世界、すなわち、元の世界/scenarioから、望まれないし望ましくない結果が得られる想像の世界/scenarioに、どのようにナビゲートできるかを示します。
論文 参考訳(メタデータ) (2024-02-06T20:39:49Z) - Counterfactual Explanation Generation with s(CASP) [2.249916681499244]
意思決定を自動化する機械学習モデルは、ローンの承認、プレトライアルの保釈、雇用など、連続した分野での利用が増えている。
残念なことに、これらのモデルのほとんどはブラックボックス(ブラックボックス)である。
本稿では, 逆実説明を自動生成する後者の問題に焦点をあてる。
論文 参考訳(メタデータ) (2023-10-23T02:05:42Z) - VCNet: A self-explaining model for realistic counterfactual generation [52.77024349608834]
事実的説明は、機械学習の決定を局所的に説明するための手法のクラスである。
本稿では,予測器と対実生成器を組み合わせたモデルアーキテクチャであるVCNet-Variational Counter Netを提案する。
我々はVCNetが予測を生成でき、また、別の最小化問題を解くことなく、反現実的な説明を生成できることを示した。
論文 参考訳(メタデータ) (2022-12-21T08:45:32Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - CARE: Coherent Actionable Recourse based on Sound Counterfactual
Explanations [0.0]
本稿では,モデルおよびユーザレベルのデシダータに対処するモジュール型説明フレームワークであるCAREを紹介する。
モデルに依存しないアプローチとして、CAREはブラックボックスモデルに対して複数の多様な説明を生成する。
論文 参考訳(メタデータ) (2021-08-18T15:26:59Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。