論文の概要: P2C: Path to Counterfactuals
- arxiv url: http://arxiv.org/abs/2508.20371v1
- Date: Thu, 28 Aug 2025 02:36:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.909327
- Title: P2C: Path to Counterfactuals
- Title(参考訳): P2C: 偽物への道
- Authors: Sopam Dasgupta, Sadaf MD Halim, Joaquín Arias, Elmer Salazar, Gopal Gupta,
- Abstract要約: 提案するPath-to-Counterfactuals(P2C)は、不必要な結果を因果的に一貫した好ましい結果に変換する計画(順序づけられた行動列)を生成する、モデルに依存しないフレームワークである。
P2Cは、目的指向のAnswer Set Programming System s(CASP)を使用して、因果依存性によって自動的に発生する機能変更の計画記述を生成する。
- 参考スコア(独自算出の注目度): 1.5495733054408805
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine-learning models are increasingly driving decisions in high-stakes settings, such as finance, law, and hiring, thus, highlighting the need for transparency. However, the key challenge is to balance transparency -- clarifying `why' a decision was made -- with recourse: providing actionable steps on `how' to achieve a favourable outcome from an unfavourable outcome. Counterfactual explanations reveal `why' an undesired outcome occurred and `how' to reverse it through targeted feature changes (interventions). Current counterfactual approaches have limitations: 1) they often ignore causal dependencies between features, and 2) they typically assume all interventions can happen simultaneously, an unrealistic assumption in practical scenarios where actions are typically taken in a sequence. As a result, these counterfactuals are often not achievable in the real world. We present P2C (Path-to-Counterfactuals), a model-agnostic framework that produces a plan (ordered sequence of actions) converting an unfavourable outcome to a causally consistent favourable outcome. P2C addresses both limitations by 1) Explicitly modelling causal relationships between features and 2) Ensuring that each intermediate state in the plan is feasible and causally valid. P2C uses the goal-directed Answer Set Programming system s(CASP) to generate the plan accounting for feature changes that happen automatically due to causal dependencies. Furthermore, P2C refines cost (effort) computation by only counting changes actively made by the user, resulting in realistic cost estimates. Finally, P2C highlights how its causal planner outperforms standard planners, which lack causal knowledge and thus can generate illegal actions.
- Abstract(参考訳): 機械学習モデルは、財務、法律、雇用といった高度な状況において意思決定を推進し、透明性の必要性を強調している。
しかし、重要な課題は透明性のバランスをとること -- 決定が下された理由を明確にすること -- と、言い換えれば、望ましくない結果から好ましくない結果を達成するために、‘どのように’に対して実行可能なステップを提供することである。
否定的な説明は、なぜ望ましくない結果が生じたのか、そして、ターゲットとなる特徴変化(介入)を通じてそれを逆転させる方法が示される。
現在のカウンターファクトアプローチには制限がある。
1)特徴間の因果関係を無視することが多く、
2) 一般に、すべての介入が同時に起こりうると仮定するが、これは、アクションが典型的にシーケンスで取られる実践的なシナリオにおける非現実的な仮定である。
結果として、これらのカウンターファクトは現実世界では達成できないことが多い。
P2C(Path-to-Counterfactuals)は、不利な結果を因果的に一貫した好ましい結果に変換する計画(順序づけられた行動列)を生成する、モデルに依存しないフレームワークである。
P2Cは両方の制限に対処する
1)特徴と特徴の因果関係を明示的にモデル化する
2) 計画中の各中間状態が適切かつ因果的に有効であることを保証する。
P2Cは、目的指向のAnswer Set Programming System s(CASP)を使用して、因果依存性によって自動的に発生する機能変更の計画記述を生成する。
さらに、P2Cは、ユーザが積極的に行った変化だけを数えることによってコスト(努力)の計算を洗練し、現実的なコスト見積もりをもたらす。
最後に、P2Cは、因果的プランナーが標準的なプランナーよりも優れており、因果的知識が欠如しているため違法な行動を引き起こす可能性があることを強調している。
関連論文リスト
- RealAC: A Domain-Agnostic Framework for Realistic and Actionable Counterfactual Explanations [7.578439720012189]
RealACは、現実的で行動可能な対物を生成するためのドメインに依存しないフレームワークである。
RealACは、明示的なドメイン知識に頼ることなく、複雑な機能間の依存関係を自動的に保存する。
論文 参考訳(メタデータ) (2025-08-14T08:51:39Z) - DecisionFlow: Advancing Large Language Model as Principled Decision Maker [49.088778182807395]
DecisionFlowは、モデルにアクション、属性、制約の構造化された表現を推論するように誘導する、新しい決定モデリングフレームワークである。
プロンプトから直接回答を予測するのではなく、DecisionFlowは意味論的に根拠のある決定空間を構築し、潜在ユーティリティ関数を推論する。
実験の結果,DecisionFlowの精度は,強いプロンプトベースラインよりも最大30%向上した。
論文 参考訳(メタデータ) (2025-05-27T16:23:53Z) - Bidirectional Decoding: Improving Action Chunking via Guided Test-Time Sampling [51.38330727868982]
動作チャンキングが学習者と実証者の間の分岐にどのように影響するかを示す。
動作チャンキングをクローズドループ適応でブリッジするテスト時間推論アルゴリズムである双方向デコーディング(BID)を提案する。
提案手法は、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させる。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - CFGs: Causality Constrained Counterfactual Explanations using goal-directed ASP [1.5749416770494706]
本稿では,CFG(CounterFactual Generation with s(CASP)を提案する。このフレームワークは,目標指向のAnswer Set Programming(ASP)システムs(CASP)を利用して,デファクトな説明を自動的に生成する。
CFGがこれらの世界、すなわち、望ましくない結果を得る最初の状態から、望まれる決定を得る想像された目標状態へどのようにナビゲートするかを示す。
論文 参考訳(メタデータ) (2024-05-24T21:47:58Z) - CAR-DESPOT: Causally-Informed Online POMDP Planning for Robots in
Confounded Environments [5.979296454783688]
正確で堅牢な行動予測を行う上での大きな課題は、コンファウンディングの問題である。
部分的に観測可能なマルコフ決定プロセス(POMDP)は、これらと部分的に観測可能な意思決定問題をモデル化するための広く使われているフレームワークである。
本稿では,不測な共同設立変数による誤りを解消するために,「常時正規化決定された部分観測木」(AR-DESPOT)の因果的インフォームド拡張を提案する。
論文 参考訳(メタデータ) (2023-04-13T22:32:21Z) - Rule-based Shielding for Partially Observable Monte-Carlo Planning [78.05638156687343]
一部観測可能なモンテカルロ計画(POMCP)への2つの貢献を提案する。
1つ目は、POMCPが選択した予期しない行動を、タスクのエキスパートの事前知識に関して識別する方法です。
2つ目は、POMCPが予期せぬ動作を選択するのを防ぐ遮蔽アプローチである。
我々は,pomdpsの標準ベンチマークであるtigerに対するアプローチと,移動ロボットナビゲーションにおける速度規制に関する実世界問題を評価する。
論文 参考訳(メタデータ) (2021-04-28T14:23:38Z) - Exploiting Submodular Value Functions For Scaling Up Active Perception [60.81276437097671]
アクティブな知覚タスクでは、エージェントは1つ以上の隠れ変数の不確実性を減少させる感覚行動を選択することを目的としている。
部分的に観測可能なマルコフ決定過程(POMDP)は、そのような問題に対する自然なモデルを提供する。
エージェントが利用できるセンサーの数が増えるにつれて、POMDP計画の計算コストは指数関数的に増加する。
論文 参考訳(メタデータ) (2020-09-21T09:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。