論文の概要: Synthesizing explainable counterfactual policies for algorithmic
recourse with program synthesis
- arxiv url: http://arxiv.org/abs/2201.07135v1
- Date: Tue, 18 Jan 2022 17:16:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 17:09:22.633952
- Title: Synthesizing explainable counterfactual policies for algorithmic
recourse with program synthesis
- Title(参考訳): プログラム合成を伴うアルゴリズム的会話のための説明可能な対実ポリシーの合成
- Authors: Giovanni De Toni, Bruno Lepri, Andrea Passerini
- Abstract要約: ユーザ記述と因果グラフから説明可能な対応行動列を出力するプログラムを学習する。
合成および実世界のデータセットに対する実験的評価は、我々のアプローチが効果的な介入をいかに生み出すかを示す。
- 参考スコア(独自算出の注目度): 18.485744170172545
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Being able to provide counterfactual interventions - sequences of actions we
would have had to take for a desirable outcome to happen - is essential to
explain how to change an unfavourable decision by a black-box machine learning
model (e.g., being denied a loan request). Existing solutions have mainly
focused on generating feasible interventions without providing explanations on
their rationale. Moreover, they need to solve a separate optimization problem
for each user. In this paper, we take a different approach and learn a program
that outputs a sequence of explainable counterfactual actions given a user
description and a causal graph. We leverage program synthesis techniques,
reinforcement learning coupled with Monte Carlo Tree Search for efficient
exploration, and rule learning to extract explanations for each recommended
action. An experimental evaluation on synthetic and real-world datasets shows
how our approach generates effective interventions by making orders of
magnitude fewer queries to the black-box classifier with respect to existing
solutions, with the additional benefit of complementing them with interpretable
explanations.
- Abstract(参考訳): ブラックボックスの機械学習モデル(例えばローン要求を拒否されるなど)によって、望ましくない決定をどう変えるかを説明するには、反ファクトの介入(望ましい結果を得るために私たちが取るべきアクションのシーケンス)を提供できることが不可欠です。
既存のソリューションは主に、その理論的根拠を説明することなく、実現可能な介入を生成することに重点を置いている。
さらに、各ユーザの最適化問題を別々に解決する必要がある。
本稿では,ユーザ記述と因果グラフから説明可能な反事実行動の列を出力するプログラムを,異なるアプローチで学習する。
我々は,プログラム合成技術,モンテカルロ木探索を併用した強化学習,ルール学習を活用し,各推奨行動の説明を抽出する。
合成および実世界のデータセットに関する実験的評価は、既存のソリューションに関してブラックボックス分類器のクエリを桁違いに減らし、解釈可能な説明でそれらを補完することで、我々のアプローチが効果的な介入を生み出す方法を示している。
関連論文リスト
- Optimising Human-AI Collaboration by Learning Convincing Explanations [62.81395661556852]
本研究では,人間による意思決定によって安全を保ちながら協調的なシステムを構築する手法を提案する。
Ardentは、説明のための個人の好みに適応することで、効率的で効果的な意思決定を可能にする。
論文 参考訳(メタデータ) (2023-11-13T16:00:16Z) - Simple Steps to Success: A Method for Step-Based Counterfactual Explanations [9.269923473051138]
本稿では,データ駆動型モデル依存型フレームワークを提案する。
計算効率のよいStEPはデータ多様体に沿って漸進的なステップを提供し、ユーザを望ましい結果へと誘導する。
論文 参考訳(メタデータ) (2023-06-27T15:35:22Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Complementary Explanations for Effective In-Context Learning [77.83124315634386]
大規模言語モデル (LLM) は、説明のインプロンプトから学習する際、顕著な能力を示した。
この研究は、文脈内学習に説明が使用されるメカニズムをよりよく理解することを目的としている。
論文 参考訳(メタデータ) (2022-11-25T04:40:47Z) - DisCERN:Discovering Counterfactual Explanations using Relevance Features
from Neighbourhoods [1.9706200133168679]
DisCERNは、優れた対実的説明を作成するために必要な実行可能な変更を最小限に抑える効果的な戦略である。
機能関連性に基づく説明がDisCERNに「実行可能な機能」の最小サブセットを特定するためにいかに広く採用されているかを示す。
以上の結果から, DisCERN は, 適切な対実的説明作成に必要な実行可能な変更を最小化するための効果的な戦略であることが示唆された。
論文 参考訳(メタデータ) (2021-09-13T09:25:25Z) - Optimal Counterfactual Explanations in Tree Ensembles [3.8073142980733]
我々は「最適」な説明を目的としたモデルに基づく探索を提唱し、効率的な混合整数プログラミング手法を提案する。
孤立林は我々のフレームワーク内でモデル化され、低いアウトリーチスコアで妥当な説明に焦点を絞ることができることを示す。
論文 参考訳(メタデータ) (2021-06-11T22:44:27Z) - Loss Bounds for Approximate Influence-Based Abstraction [81.13024471616417]
影響に基づく抽象化は、システムの残りの部分が与える「影響」とともに、局所的なサブプロブレムをモデル化することでレバレッジを得ることを目的としている。
本稿では,理論的観点から,そのような手法の性能について考察する。
交叉エントロピーで訓練されたニューラルネットワークは、近似的な影響表現を学習するのに適していることを示す。
論文 参考訳(メタデータ) (2020-11-03T15:33:10Z) - Can We Learn Heuristics For Graphical Model Inference Using
Reinforcement Learning? [114.24881214319048]
我々は、強化学習を用いて、高次条件ランダム場(CRF)における推論を解くためのプログラム、すなわち、ポリシーを学習できることを示します。
本手法は,ポテンシャルの形式に制約を加えることなく,推論タスクを効率的に解く。
論文 参考訳(メタデータ) (2020-04-27T19:24:04Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z) - Decisions, Counterfactual Explanations and Strategic Behavior [16.980621769406923]
戦略的な設定で実用性の観点から最適な政策と対実的な説明を見つける。
事前に定義されたポリシーを考えると、最適の対実的説明の集合を見つける問題はNPハードであることが示される。
本研究では,マトロイド制約を問題定式化に組み込むことで,最適対実的説明セットの多様性を高めることができることを示した。
論文 参考訳(メタデータ) (2020-02-11T12:04:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。