論文の概要: Decisions, Counterfactual Explanations and Strategic Behavior
- arxiv url: http://arxiv.org/abs/2002.04333v3
- Date: Wed, 14 Oct 2020 16:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 02:13:19.978046
- Title: Decisions, Counterfactual Explanations and Strategic Behavior
- Title(参考訳): 決定・反現実的説明・戦略行動
- Authors: Stratis Tsirtsis and Manuel Gomez-Rodriguez
- Abstract要約: 戦略的な設定で実用性の観点から最適な政策と対実的な説明を見つける。
事前に定義されたポリシーを考えると、最適の対実的説明の集合を見つける問題はNPハードであることが示される。
本研究では,マトロイド制約を問題定式化に組み込むことで,最適対実的説明セットの多様性を高めることができることを示した。
- 参考スコア(独自算出の注目度): 16.980621769406923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As data-driven predictive models are increasingly used to inform decisions,
it has been argued that decision makers should provide explanations that help
individuals understand what would have to change for these decisions to be
beneficial ones. However, there has been little discussion on the possibility
that individuals may use the above counterfactual explanations to invest effort
strategically and maximize their chances of receiving a beneficial decision. In
this paper, our goal is to find policies and counterfactual explanations that
are optimal in terms of utility in such a strategic setting. We first show
that, given a pre-defined policy, the problem of finding the optimal set of
counterfactual explanations is NP-hard. Then, we show that the corresponding
objective is nondecreasing and satisfies submodularity and this allows a
standard greedy algorithm to enjoy approximation guarantees. In addition, we
further show that the problem of jointly finding both the optimal policy and
set of counterfactual explanations reduces to maximizing a non-monotone
submodular function. As a result, we can use a recent randomized algorithm to
solve the problem, which also offers approximation guarantees. Finally, we
demonstrate that, by incorporating a matroid constraint into the problem
formulation, we can increase the diversity of the optimal set of counterfactual
explanations and incentivize individuals across the whole spectrum of the
population to self improve. Experiments on synthetic and real lending and
credit card data illustrate our theoretical findings and show that the
counterfactual explanations and decision policies found by our algorithms
achieve higher utility than several competitive baselines.
- Abstract(参考訳): データ駆動予測モデルは、意思決定を知らせるためにますます使われるようになっているため、意思決定者は、これらの決定に何が変わるかを理解するのに役立つ説明を提供するべきだ、と論じられている。
しかし、個人が戦略的に投資し、有益な決定を受ける機会を最大化するために上記の反事実的説明を使う可能性についてはほとんど議論されていない。
本稿では,このような戦略的状況下での実用性の観点から最適である政策と反実的説明を見つけることを目的とする。
まず、事前に定義されたポリシーを考えると、最適対実的説明の集合を見つける問題はNPハードであることが示される。
そして, 対応する目的が非減少であり, 準モジュラリティを満たすことを示し, これにより, 標準グリーディアルゴリズムが近似保証を楽しむことができることを示す。
さらに、最適ポリシーと対実的説明のセットの両方を共同で見つけるという問題は、非単調部分モジュラ函数の最大化に還元されることも示している。
その結果,最近のランダム化アルゴリズムを用いて問題を解くことが可能となり,近似保証も提供される。
最後に,問題定式化にマトロイド制約を組み込むことにより,反事実的説明の最適セットの多様性を増大させ,集団のスペクトル全体にわたって個人にインセンティブを与え,自己改善を可能にすることを実証する。
合成・実貸・クレジットカードデータを用いた実験により,提案手法が提案する非事実的説明や意思決定方針が,複数の競合ベースラインよりも高い有用性が得られることを示す。
関連論文リスト
- Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Online POMDP Planning with Anytime Deterministic Guarantees [11.157761902108692]
不確実性の下での計画は、部分的に観測可能なマルコフ決定プロセス(POMDP)を用いて数学的に定式化できる
POMDPの最適計画を見つけるには計算コストがかかり、小さなタスクにのみ適用可能である。
簡便な解と理論的に最適な解との決定論的関係を導出する。
論文 参考訳(メタデータ) (2023-10-03T04:40:38Z) - Optimization's Neglected Normative Commitments [3.3388234549922027]
潜在的に高い意思決定にアプローチするために使用されるパラダイムは、現実世界を決定(s)、目的(s)、制約(s)の集合に抽象化することに依存している。
本稿では,最適化に必須の規範的選択と仮定について述べる。
その後、無視される可能性のある6つの緊急問題を特定する。
論文 参考訳(メタデータ) (2023-05-27T12:43:15Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - Policy learning "without" overlap: Pessimism and generalized empirical Bernstein's inequality [94.89246810243053]
本論文は,事前収集した観測値を利用して最適な個別化決定規則を学習するオフライン政策学習について検討する。
既存の政策学習法は、一様重なりの仮定、すなわち、全ての個々の特性に対する全ての作用を探索する正当性は、境界を低くしなければならない。
我々は,点推定の代わりに低信頼度境界(LCB)を最適化する新しいアルゴリズムであるPPLを提案する。
論文 参考訳(メタデータ) (2022-12-19T22:43:08Z) - From Explanation to Recommendation: Ethical Standards for Algorithmic
Recourse [0.0]
我々は、リコースは、説明問題ではなく、レコメンデーション問題と見なされるべきであると主張する。
本稿では,アルゴリズム的言論における多様性制約について考察する。
論文 参考訳(メタデータ) (2022-05-30T20:09:42Z) - Off-Policy Evaluation with Policy-Dependent Optimization Response [90.28758112893054]
我々は,テキスト政治に依存した線形最適化応答を用いた非政治評価のための新しいフレームワークを開発した。
摂動法による政策依存推定のための非バイアス推定器を構築する。
因果介入を最適化するための一般的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2022-02-25T20:25:37Z) - Bayesian Persuasion for Algorithmic Recourse [28.586165301962485]
いくつかの状況では、根底にある予測モデルはゲームを避け、競争上の優位性を維持するために意図的に秘密にされている。
我々はベイズ的説得のゲームのような設定を捉え、意思決定者は、例えばアクションレコメンデーションのようなシグナルを、望ましい行動を取るためのインセンティブを与える決定対象に送信する。
本稿では,最適化問題として最適なベイズ的インセンティブ互換(BIC)行動推薦ポリシーを見出すという意思決定者の問題を定式化し,線形プログラムを用いて解を特徴づける。
論文 参考訳(メタデータ) (2021-12-12T17:18:54Z) - Understanding the Effect of Stochasticity in Policy Optimization [86.7574122154668]
最適化手法の優位性は、正確な勾配が用いられるかどうかに大きく依存することを示す。
次に,政策最適化におけるコミット率の概念を紹介する。
第三に、外部のオラクル情報がない場合には、収束を加速するために幾何を利用することと、最適性をほぼ確実に達成することとの間に本質的にトレードオフがあることが示される。
論文 参考訳(メタデータ) (2021-10-29T06:35:44Z) - Modularity in Reinforcement Learning via Algorithmic Independence in
Credit Assignment [79.5678820246642]
提案手法は, 事前決定の順序に対して, スパース変化のみを必要とする伝達問題に対して, 政策段階の手法よりも, より標本効率が高いことを示す。
我々は最近提案された社会的意思決定の枠組みをマルコフ決定プロセスよりもよりきめ細かい形式主義として一般化する。
論文 参考訳(メタデータ) (2021-06-28T21:29:13Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。