論文の概要: Towards Robust and Reliable Algorithmic Recourse
- arxiv url: http://arxiv.org/abs/2102.13620v1
- Date: Fri, 26 Feb 2021 17:38:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-02 02:20:24.180072
- Title: Towards Robust and Reliable Algorithmic Recourse
- Title(参考訳): ロバストで信頼性の高いアルゴリズムリコースを目指して
- Authors: Sohini Upadhyay, Shalmali Joshi, Himabindu Lakkaraju
- Abstract要約: モデルシフトに堅牢なリコースを見つけるための敵対的トレーニングを活用する新しいフレームワークであるRObust Algorithmic Recourse(ROAR)を提案します。
また,モデルシフトにロバストなリコースの構築の重要性を強調する詳細な理論解析を行う。
- 参考スコア(独自算出の注目度): 11.887537452826624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As predictive models are increasingly being deployed in high-stakes decision
making (e.g., loan approvals), there has been growing interest in post hoc
techniques which provide recourse to affected individuals. These techniques
generate recourses under the assumption that the underlying predictive model
does not change. However, in practice, models are often regularly updated for a
variety of reasons (e.g., dataset shifts), thereby rendering previously
prescribed recourses ineffective. To address this problem, we propose a novel
framework, RObust Algorithmic Recourse (ROAR), that leverages adversarial
training for finding recourses that are robust to model shifts. To the best of
our knowledge, this work proposes the first solution to this critical problem.
We also carry out detailed theoretical analysis which underscores the
importance of constructing recourses that are robust to model shifts: 1) we
derive a lower bound on the probability of invalidation of recourses generated
by existing approaches which are not robust to model shifts. 2) we prove that
the additional cost incurred due to the robust recourses output by our
framework is bounded. Experimental evaluation on multiple synthetic and
real-world datasets demonstrates the efficacy of the proposed framework and
supports our theoretical findings.
- Abstract(参考訳): 予測モデルが高リスクな意思決定(ローンの承認など)に展開されるようになってきており、影響を受けた個人へのリアクションを提供するポストホック技術への関心が高まっている。
これらの手法は、基礎となる予測モデルが変化しないという仮定のもとにリコースを生成する。
しかし、実際には、モデルはしばしば様々な理由(例えばデータセットのシフト)のために定期的に更新されるため、事前に定められたリコースは有効ではない。
この問題に対処するために,モデルシフトに頑健なリコースを見つけるために,敵対的トレーニングを活用する新しいフレームワークRObust Algorithmic Recourse(ROAR)を提案する。
我々の知る限りでは、この研究はこの重要な問題の第一の解決法を提案する。
また、モデルシフトに堅牢なリコースの構築の重要性を強調した詳細な理論的分析を実施します。1)モデルシフトに堅牢でない既存のアプローチによって生成されたリコースの無効化の確率を低く導出します。
2) フレームワークが出力するロバストなリコースによって生じる追加コストが有界であることを証明する。
複数の合成データと実世界のデータセットの実験的評価は,提案手法の有効性を示し,理論的知見を裏付けるものである。
関連論文リスト
- Rigorous Probabilistic Guarantees for Robust Counterfactual Explanations [80.86128012438834]
モデルシフトに対する反ファクトの堅牢性を計算することはNP完全であることを示す。
本稿では,頑健性の厳密な推定を高い保証で実現する新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2024-07-10T09:13:11Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Coverage-Validity-Aware Algorithmic Recourse [23.643366441803796]
本稿では,モデルシフトに対するロバスト性を示すモデルに依存しない談話を生成する新しい枠組みを提案する。
筆者らのフレームワークはまず,非線形(ブラックボックス)モデルのカバレッジを意識した線形サロゲートを構築する。
我々の代理は近似超平面を直感的に推し進め、頑健なだけでなく解釈可能なレコースも容易にすることを示した。
論文 参考訳(メタデータ) (2023-11-19T15:21:49Z) - On the Trade-offs between Adversarial Robustness and Actionable Explanations [32.05150063480917]
本研究は, 対向的に頑健なモデルが動作可能な説明に与える影響を初めて研究する試みである。
提案手法は,最先端のアルゴリズムが生成する手法のコストと妥当性の差に関する理論的境界を導出する。
その結果, 逆向き頑健なモデルでは, コストが大幅に増加し, 結果の妥当性が低下することが示唆された。
論文 参考訳(メタデータ) (2023-09-28T13:59:50Z) - Introducing Foundation Models as Surrogate Models: Advancing Towards
More Practical Adversarial Attacks [15.882687207499373]
箱なしの敵攻撃は、AIシステムにとってより実用的で難しいものになりつつある。
本稿では,サロゲートモデルとして基礎モデルを導入することにより,逆攻撃を下流タスクとして再放送する。
論文 参考訳(メタデータ) (2023-07-13T08:10:48Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - CREST: A Joint Framework for Rationalization and Counterfactual Text
Generation [5.606679908174783]
我々は選択的合理化と対実テキスト生成のためのフレームワークであるCREST(ContRastive Edits with Sparse raTionalization)を紹介する。
CRESTは、従来の方法よりも自然な有効な偽物を生成する。
CRESTのカウンターファクトを利用して選択的論理を規則化する新たな損失関数は、モデルの堅牢性と合理性の両方を改善します。
論文 参考訳(メタデータ) (2023-05-26T16:34:58Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Probabilistically Robust Recourse: Navigating the Trade-offs between
Costs and Robustness in Algorithmic Recourse [34.39887495671287]
本稿では,達成された(反感)と所望のリコース無効率とのギャップを同時に最小化する目的関数を提案する。
我々は,任意のインスタンスに対応するリコース無効化率を特徴付けるために,新しい理論的結果を開発した。
複数の実世界のデータセットを用いた実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-13T21:39:24Z) - On the model-based stochastic value gradient for continuous
reinforcement learning [50.085645237597056]
モデルベースエージェントは,サンプル効率と最終報酬の両方の観点から,最先端のモデルフリーエージェントより優れていることを示す。
以上の結果から,モデルに基づく政策評価がより注目に値することが示唆された。
論文 参考訳(メタデータ) (2020-08-28T17:58:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。