論文の概要: Algorithmic Recourse in the Face of Noisy Human Responses
- arxiv url: http://arxiv.org/abs/2203.06768v1
- Date: Sun, 13 Mar 2022 21:39:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 06:55:43.307819
- Title: Algorithmic Recourse in the Face of Noisy Human Responses
- Title(参考訳): 雑音を伴う人間の反応に対するアルゴリズム的リアクション
- Authors: Martin Pawelczyk and Teresa Datta and Johannes van-den-Heuvel and
Gjergji Kasneci and Himabindu Lakkaraju
- Abstract要約: 本研究では, 騒音を伴う人間の反応に直面するリコースの無効化問題について検討する。
この問題に対処する新しいフレームワークEXPECT(EXPECTing Noisy Response)を提案する。
- 参考スコア(独自算出の注目度): 17.08624226541884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning (ML) models are increasingly being deployed in
high-stakes applications, there has been growing interest in providing recourse
to individuals adversely impacted by model predictions (e.g., an applicant
whose loan has been denied). To this end, several post hoc techniques have been
proposed in recent literature. These techniques generate recourses under the
assumption that the affected individuals will implement the prescribed
recourses exactly. However, recent studies suggest that individuals often
implement recourses in a noisy and inconsistent manner - e.g., raising their
salary by \$505 if the prescribed recourse suggested an increase of \$500.
Motivated by this, we introduce and study the problem of recourse invalidation
in the face of noisy human responses. More specifically, we theoretically and
empirically analyze the behavior of state-of-the-art algorithms, and
demonstrate that the recourses generated by these algorithms are very likely to
be invalidated if small changes are made to them. We further propose a novel
framework, EXPECTing noisy responses (EXPECT), which addresses the
aforementioned problem by explicitly minimizing the probability of recourse
invalidation in the face of noisy responses. Experimental evaluation with
multiple real world datasets demonstrates the efficacy of the proposed
framework, and supports our theoretical findings
- Abstract(参考訳): 機械学習(ml)モデルが高リスクアプリケーションにデプロイされることが増えているため、モデル予測によって悪影響を受ける個人(例えば、ローンが拒否された申請者)へのリアクションの提供への関心が高まっている。
この目的のために、最近の文献ではいくつかのポストホック技術が提案されている。
これらの手法は、影響を受ける個人が正確に所定のリコースを実行すると仮定してリコースを生成する。
しかし、最近の研究では、例えば、所定のリコースが500ドルの増加を示唆した場合、給与を505ドルで上げるなど、個人が騒がしく一貫性のない方法でリコースを実施することがしばしばある。
そこで我々は, 騒音に強い人間の反応に対して, リコース無効化の問題を紹介し, 研究した。
より具体的には、最先端アルゴリズムの挙動を理論的および実証的に分析し、小さな変更が加えられた場合には、これらのアルゴリズムが生成するリルーチンが無効になる可能性が非常に高いことを実証する。
さらに,雑音応答に直面するリコース無効化の確率を明示的に最小化することにより,上記の問題に対処する新しいフレームワークEXPECT(EXPECTing Noisy Response)を提案する。
複数の実世界のデータセットによる実験的評価は,提案手法の有効性を示し,我々の理論的知見を支持する。
関連論文リスト
- Perfect Counterfactuals in Imperfect Worlds: Modelling Noisy Implementation of Actions in Sequential Algorithmic Recourse [26.57812122315108]
アルゴリズムによる会話は、自動意思決定に悪影響を及ぼした個人に行動を与える。
環境変動性や個人の選択により、ユーザーが完璧に実装することを保証していない。
本稿では,RObust Sequential(ROSE)レコース生成器を提案する。
論文 参考訳(メタデータ) (2024-10-03T07:47:42Z) - On the Trade-offs between Adversarial Robustness and Actionable Explanations [32.05150063480917]
本研究は, 対向的に頑健なモデルが動作可能な説明に与える影響を初めて研究する試みである。
提案手法は,最先端のアルゴリズムが生成する手法のコストと妥当性の差に関する理論的境界を導出する。
その結果, 逆向き頑健なモデルでは, コストが大幅に増加し, 結果の妥当性が低下することが示唆された。
論文 参考訳(メタデータ) (2023-09-28T13:59:50Z) - Leaving the Nest: Going Beyond Local Loss Functions for
Predict-Then-Optimize [57.22851616806617]
本手法は,文献から得られた4つの領域において,最先端の成果が得られることを示す。
提案手法は, 局所性仮定が破られた場合, 既存手法よりも200%近く性能が向上する。
論文 参考訳(メタデータ) (2023-05-26T11:17:45Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
論文 参考訳(メタデータ) (2022-03-09T01:55:59Z) - Low-Cost Algorithmic Recourse for Users With Uncertain Cost Functions [74.00030431081751]
本稿では,ユーザ固有のコスト関数の概念を定式化し,ユーザのための行動可能なリコースを識別する新しい手法を提案する。
本手法は,強いベースライン法に比べて最大25.89パーセントのユーザを満足させる。
論文 参考訳(メタデータ) (2021-11-01T19:49:35Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Towards Robust and Reliable Algorithmic Recourse [11.887537452826624]
モデルシフトに堅牢なリコースを見つけるための敵対的トレーニングを活用する新しいフレームワークであるRObust Algorithmic Recourse(ROAR)を提案します。
また,モデルシフトにロバストなリコースの構築の重要性を強調する詳細な理論解析を行う。
論文 参考訳(メタデータ) (2021-02-26T17:38:52Z) - Present-Biased Optimization [8.775878711928591]
論文は,akerlof (1991) が提唱した,時間的一貫性のない計画に関する人間の行動の様々な側面を研究する枠組みを拡張した。
その結果,現在偏りのあるエージェントが計算している解のコストと最適解のコストの比率は,問題制約によって大きく異なることがわかった。
論文 参考訳(メタデータ) (2020-12-29T12:40:59Z) - Beyond Individualized Recourse: Interpretable and Interactive Summaries
of Actionable Recourses [14.626432428431594]
本稿では,Actionable Recourse Agnostic (AReS) と呼ばれる新しいモデルフレームワークを提案する。
説明文の正当性と解釈可能性の両面を同時に最適化する新たな目的を定式化する。
当社のフレームワークは,ブラックボックスモデルに対応するリコースの包括的概要を意思決定者に提供する。
論文 参考訳(メタデータ) (2020-09-15T15:14:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。