論文の概要: Can I Still Trust You?: Understanding the Impact of Distribution Shifts
on Algorithmic Recourses
- arxiv url: http://arxiv.org/abs/2012.11788v2
- Date: Fri, 26 Feb 2021 17:55:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 04:05:58.798431
- Title: Can I Still Trust You?: Understanding the Impact of Distribution Shifts
on Algorithmic Recourses
- Title(参考訳): 私はまだあなたを信頼できますか。
分散シフトがアルゴリズム的会話に与える影響を理解する
- Authors: Kaivalya Rawal, Ece Kamar, Himabindu Lakkaraju
- Abstract要約: 現状のアルゴリズムが分布シフトに頑健であるかどうかを考察する。
その結果,分布シフトによるリコース無効化確率の低い値が得られた。
- 参考スコア(独自算出の注目度): 30.37864851229101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As predictive models are being increasingly deployed to make a variety of
consequential decisions ranging from hiring decisions to loan approvals, there
is growing emphasis on designing algorithms that can provide reliable recourses
to affected individuals. In this work, we assess the reliability of algorithmic
recourses through the lens of distribution shifts i.e., we study if the
recourses generated by state-of-the-art algorithms are robust to distribution
shifts. To the best of our knowledge, this work makes the first attempt at
addressing this critical question. We experiment with multiple synthetic and
real world datasets capturing different kinds of distribution shifts including
temporal shifts, geospatial shifts, and shifts due to data corrections. Our
results demonstrate that all the aforementioned distribution shifts could
potentially invalidate the recourses generated by state-of-the-art algorithms.
Our theoretical results establish a lower bound on the probability of recourse
invalidation due to distribution shifts, and show the existence of a tradeoff
between this invalidation probability and typical notions of cost minimized by
modern recourse generation algorithms. Our findings not only expose fundamental
flaws in recourse finding strategies but also pave new way for rethinking the
design and development of recourse generation algorithms.
- Abstract(参考訳): 雇用の決定からローンの承認まで、予測モデルが様々な決定を下すためにますます展開されているため、影響を受ける個人に信頼できるリコースを提供するアルゴリズムの設計に重点が置かれている。
本研究では,分布シフトのレンズによるアルゴリズムの講義の信頼性を評価する。すなわち,現状のアルゴリズムが分布シフトに対して堅牢であるかどうかを検討する。
私たちの知る限りでは、この研究は、この批判的な問題に取り組む最初の試みとなる。
我々は、時間シフト、地理空間シフト、データ修正によるシフトなど、様々な種類の分布シフトを収集する複数の合成および実世界のデータセットを実験した。
その結果,上記の分散シフトが,最先端アルゴリズムによる帰結を無効にする可能性が示唆された。
提案理論は, 分散シフトによるリコース無効化確率の低い値を確立し, この無効化確率と, 現代のリコース生成アルゴリズムで最小化されるコストの典型的な概念とのトレードオフの存在を示す。
本研究は,リコース発見戦略の根本的な欠陥を明らかにするだけでなく,リコース生成アルゴリズムの設計と開発を再考する新たな手法を開拓する。
関連論文リスト
- Scalable Decentralized Algorithms for Online Personalized Mean Estimation [12.002609934938224]
本研究は,各エージェントが実数値分布からサンプルを収集し,その平均値を推定する,オーバーアーキシング問題の簡易版に焦点を当てた。
1つは信念の伝播からインスピレーションを得ており、もう1つはコンセンサスに基づくアプローチを採用している。
論文 参考訳(メタデータ) (2024-02-20T08:30:46Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Prominent Roles of Conditionally Invariant Components in Domain Adaptation: Theory and Algorithms [10.949415951813661]
ドメイン適応(DA)は、モデルを訓練するために使用されるソースデータの分布が、モデルを評価するために使用されるターゲットデータと異なるときに発生する統計的学習問題である。
我々は、条件不変成分(CIC)が予測に関係していることを示し、条件不変成分をソースデータとターゲットデータ間で保持することを示す。
我々は,CICに基づく新しいアルゴリズム,重要度重み付き条件不変ペナルティ(IW-CIP)を提案する。
論文 参考訳(メタデータ) (2023-09-19T04:04:59Z) - Adapting to Latent Subgroup Shifts via Concepts and Proxies [82.01141290360562]
最適ターゲット予測器は、ソースドメインでのみ利用できる概念とプロキシ変数の助けを借りて、非パラメトリックに識別可能であることを示す。
本研究では,データ生成プロセスに特有の潜在変数モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T18:30:22Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - OoD-Bench: Benchmarking and Understanding Out-of-Distribution
Generalization Datasets and Algorithms [28.37021464780398]
1つの分布シフトにおいて経験的リスク最小化よりも優れた既存のOoDアルゴリズムは、通常、他の分布シフトに制限があることを示す。
新しいベンチマークは、将来のOoD一般化研究で活用できる強力な基盤として機能する可能性がある。
論文 参考訳(メタデータ) (2021-06-07T15:34:36Z) - Towards Robust and Reliable Algorithmic Recourse [11.887537452826624]
モデルシフトに堅牢なリコースを見つけるための敵対的トレーニングを活用する新しいフレームワークであるRObust Algorithmic Recourse(ROAR)を提案します。
また,モデルシフトにロバストなリコースの構築の重要性を強調する詳細な理論解析を行う。
論文 参考訳(メタデータ) (2021-02-26T17:38:52Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - Calibrated Prediction with Covariate Shift via Unsupervised Domain
Adaptation [25.97333838935589]
不確実性推定は、自律的なエージェントや人間の意思決定者が予測モデルを理解し、活用するのを助ける重要なツールである。
既存のアルゴリズムは確実性を過大評価し、予測モデルに誤った自信を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-29T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。