論文の概要: On the Adversarial Robustness of Causal Algorithmic Recourse
- arxiv url: http://arxiv.org/abs/2112.11313v1
- Date: Tue, 21 Dec 2021 16:00:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 18:39:47.291847
- Title: On the Adversarial Robustness of Causal Algorithmic Recourse
- Title(参考訳): 因果アルゴリズムの逆ロバスト性について
- Authors: Ricardo Dominguez-Olmedo, Amir-Hossein Karimi, Bernhard Sch\"olkopf
- Abstract要約: レコメンデーションは理想的には、合理的に小さな不確実性に対して堅牢であるべきです。
最小コストのリコースを提供するリコース手法は堅牢ではないことを示す。
本稿では,ロバストなリコースを求めるコストを低くするモデルレギュレータを提案する。
- 参考スコア(独自算出の注目度): 2.1132376804211543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic recourse seeks to provide actionable recommendations for
individuals to overcome unfavorable outcomes made by automated decision-making
systems. Recourse recommendations should ideally be robust to reasonably small
uncertainty in the features of the individual seeking recourse. In this work,
we formulate the adversarially robust recourse problem and show that recourse
methods offering minimally costly recourse fail to be robust. We then present
methods for generating adversarially robust recourse in the linear and in the
differentiable case. To ensure that recourse is robust, individuals are asked
to make more effort than they would have otherwise had to. In order to shift
part of the burden of robustness from the decision-subject to the
decision-maker, we propose a model regularizer that encourages the additional
cost of seeking robust recourse to be low. We show that classifiers trained
with our proposed model regularizer, which penalizes relying on unactionable
features for prediction, offer potentially less effortful recourse.
- Abstract(参考訳): algorithmic recourseは、個人が自動化された意思決定システムによってなされた不利な成果を克服するための行動可能な推奨を提供することを目指している。
リコースのレコメンデーションは、リコースを求める個人の特徴において、合理的に不確実性を小さくするために、理想的には堅牢であるべきである。
本研究では,逆向きに頑健なリコース問題を定式化し,最小コストのリコースを提供するリコース手法が頑健でないことを示す。
次に,線形および微分可能な場合において,逆ロバストなリコースを生成する手法を提案する。
recourseが堅牢であることを保証するため、個人は必要以上に努力するよう求められます。
意思決定対象から意思決定者へのロバスト性の負担の一部をシフトするために,ロバストなリコースを求める追加コストを低減させるモデルレギュレータを提案する。
提案したモデル正規化器を用いて学習した分類器は,予測に不活性な特徴を頼りにし,潜在的に難易度が低いことを示す。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Cost-Adaptive Recourse Recommendation by Adaptive Preference Elicitation [18.423687983628145]
アルゴリズムのリコースでは、被験者に対して、好ましくない機械学習の分類決定を逆転させるために、コスト効率のよいアクションを推奨する。
本稿では、リコース生成問題に嗜好学習を統合するための2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-23T03:27:17Z) - Robustness Implies Fairness in Casual Algorithmic Recourse [13.86376549140248]
アルゴリズムリコースは、決定が重大な結果をもたらす状況において、ブラックボックス決定プロセスの内部動作を明らかにすることを目的としている。
効果的な治療を確実にするためには、提案された介入は低コストであるだけでなく、堅牢で公平でなければならない。
本研究では,因果的アルゴリズムによる会話における個人的公正性と敵対的ロバスト性の概念について検討する。
論文 参考訳(メタデータ) (2023-02-07T13:40:56Z) - Incentive-Aware Recommender Systems in Two-Sided Markets [49.692453629365204]
最適性能を達成しつつエージェントのインセンティブと整合する新しいレコメンデータシステムを提案する。
我々のフレームワークは、このインセンティブを意識したシステムを、両側市場におけるマルチエージェントバンディット問題としてモデル化する。
どちらのアルゴリズムも、エージェントが過剰な露出から保護する、ポストフェアネス基準を満たす。
論文 参考訳(メタデータ) (2022-11-23T22:20:12Z) - Algorithmic Assistance with Recommendation-Dependent Preferences [2.864550757598007]
選択に影響を及ぼすアルゴリズムレコメンデーションの効果と設計について考察する。
我々は、レコメンデーションに依存した選好が、意思決定者がレコメンデーションに過度に反応する非効率性を生み出すことを示す。
論文 参考訳(メタデータ) (2022-08-16T09:24:47Z) - Probabilistically Robust Recourse: Navigating the Trade-offs between
Costs and Robustness in Algorithmic Recourse [34.39887495671287]
本稿では,達成された(反感)と所望のリコース無効率とのギャップを同時に最小化する目的関数を提案する。
我々は,任意のインスタンスに対応するリコース無効化率を特徴付けるために,新しい理論的結果を開発した。
複数の実世界のデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-13T21:39:24Z) - Bayesian Persuasion for Algorithmic Recourse [28.586165301962485]
いくつかの状況では、根底にある予測モデルはゲームを避け、競争上の優位性を維持するために意図的に秘密にされている。
我々はベイズ的説得のゲームのような設定を捉え、意思決定者は、例えばアクションレコメンデーションのようなシグナルを、望ましい行動を取るためのインセンティブを与える決定対象に送信する。
本稿では,最適化問題として最適なベイズ的インセンティブ互換(BIC)行動推薦ポリシーを見出すという意思決定者の問題を定式化し,線形プログラムを用いて解を特徴づける。
論文 参考訳(メタデータ) (2021-12-12T17:18:54Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - Outcome-Driven Reinforcement Learning via Variational Inference [95.82770132618862]
我々は、報酬を最大化する問題ではなく、望ましい結果を達成するための行動を推測する問題として、強化学習に関する新たな視点について論じる。
結果として得られる結果指向推論の問題を解決するため, 定型的報酬関数を導出する新しい変分推論定式を制定する。
我々は,この手法が報酬機能の設計を不要とし,効果的なゴール指向行動へと導くことを実証的に示す。
論文 参考訳(メタデータ) (2021-04-20T18:16:21Z) - Confidence-Budget Matching for Sequential Budgeted Learning [69.77435313099366]
問合せ予算で意思決定問題を定式化する。
我々は,多腕バンディット,線形バンディット,強化学習問題を考察する。
我々は,CBMに基づくアルゴリズムが逆性の存在下で良好に動作することを示す。
論文 参考訳(メタデータ) (2021-02-05T19:56:31Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。