論文の概要: The Risks of Recourse in Binary Classification
- arxiv url: http://arxiv.org/abs/2306.00497v1
- Date: Thu, 1 Jun 2023 09:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 17:12:32.176119
- Title: The Risks of Recourse in Binary Classification
- Title(参考訳): バイナリ分類におけるリコースのリスク
- Authors: Hidde Fokkema, Damien Garreau, Tim van Erven
- Abstract要約: 人口レベルでは,アルゴリズムによる談話の提供が有益か有害かを検討した。
会話を提供することが有害であることが判明した、もっともらしいシナリオがたくさんあることが分かりました。
アルゴリズム・リコースの現在の概念は、確実に有益ではないと結論付けている。
- 参考スコア(独自算出の注目度): 8.19666118455293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic recourse provides explanations that help users overturn an
unfavorable decision by a machine learning system. But so far very little
attention has been paid to whether providing recourse is beneficial or not. We
introduce an abstract learning-theoretic framework that compares the risks
(i.e. expected losses) for classification with and without algorithmic
recourse. This allows us to answer the question of when providing recourse is
beneficial or harmful at the population level. Surprisingly, we find that there
are many plausible scenarios in which providing recourse turns out to be
harmful, because it pushes users to regions of higher class uncertainty and
therefore leads to more mistakes. We further study whether the party deploying
the classifier has an incentive to strategize in anticipation of having to
provide recourse, and we find that sometimes they do, to the detriment of their
users. Providing algorithmic recourse may therefore also be harmful at the
systemic level. We confirm our theoretical findings in experiments on simulated
and real-world data. All in all, we conclude that the current concept of
algorithmic recourse is not reliably beneficial, and therefore requires
rethinking.
- Abstract(参考訳): algorithmic recourseは、機械学習システムによって好ましくない決定を覆すのに役立つ説明を提供する。
しかし、リコースの提供が有益かどうかにはほとんど注意が払われていない。
本稿では,アルゴリズムリコースの有無に関わらず,分類のリスク(すなわち期待損失)を比較する抽象学習理論の枠組みを提案する。
これにより、人口レベルでのレコメンデーションの提供が有益か有害かという疑問に答えることができる。
意外なことに、高レベルの不確実性のあるリージョンにユーザをプッシュして、より多くのミスを引き起こすため、レコースを提供するという有害なシナリオが多数存在することがわかりました。
さらに, 分類器を展開する当事者が, リコースの提供を期待してストラテジライズするインセンティブを持つかどうかについても検討した。
したがって、アルゴリズムによる会話を提供することはシステムレベルでも有害である。
シミュレーションおよび実世界のデータ実験における理論的知見を確認した。
全体として、アルゴリズムリコースの現在の概念は確実に有益ではなく、そのため再検討が必要であると結論づける。
関連論文リスト
- Avoiding Catastrophe in Online Learning by Asking for Help [7.881265948305421]
本稿では,災害の可能性を最小化するオンライン学習問題を提案する。
時間的地平線が大きくなるにつれて,メンターの双方が0に近づいたことを後悔するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-12T21:12:11Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - On the Trade-Off between Actionable Explanations and the Right to be
Forgotten [21.26254644739585]
データ削除要求の文脈におけるリコース無効化の問題について検討する。
トレーニングセットから最大2つのデータインスタンスを削除することで、一般的な最先端アルゴリズムによって出力されるすべてのリコースの最大95%を無効化できることを示す。
論文 参考訳(メタデータ) (2022-08-30T10:35:32Z) - From Explanation to Recommendation: Ethical Standards for Algorithmic
Recourse [0.0]
我々は、リコースは、説明問題ではなく、レコメンデーション問題と見なされるべきであると主張する。
本稿では,アルゴリズム的言論における多様性制約について考察する。
論文 参考訳(メタデータ) (2022-05-30T20:09:42Z) - Risk Preferences of Learning Algorithms [0.0]
広く使われている学習アルゴリズムである$varepsilon$-Greedyは、突発的なリスク回避を示す。
このバイアスを修正する2つの方法について議論する。
論文 参考訳(メタデータ) (2022-05-10T01:30:24Z) - Sayer: Using Implicit Feedback to Optimize System Policies [63.992191765269396]
我々は、暗黙のフィードバックを活用して、新しいシステムポリシーを評価し、訓練する方法論を開発する。
Sayerは、強化学習の2つのアイデアに基づいて、既存のポリシーで収集されたデータを活用する。
Sayer氏は任意のポリシーを正確に評価し、生産ポリシーを上回るような新しいポリシーをトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-10-28T04:16:56Z) - MURAL: Meta-Learning Uncertainty-Aware Rewards for Outcome-Driven
Reinforcement Learning [65.52675802289775]
本研究では,不確かさを意識した分類器が,強化学習の難しさを解消できることを示す。
正規化最大度(NML)分布の計算法を提案する。
得られたアルゴリズムは、カウントベースの探索法と、報酬関数を学習するための先行アルゴリズムの両方に多くの興味深い関係を持つことを示す。
論文 参考訳(メタデータ) (2021-07-15T08:19:57Z) - Efficient First-Order Contextual Bandits: Prediction, Allocation, and
Triangular Discrimination [82.52105963476703]
統計的学習、オンライン学習、その他における繰り返しのテーマは、低騒音の問題に対してより速い収束率が可能であることである。
1次保証は統計的およびオンライン学習において比較的よく理解されている。
三角識別と呼ばれる対数損失と情報理論量が一階保証を得る上で基本的な役割を担っていることを示す。
論文 参考訳(メタデータ) (2021-07-05T19:20:34Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Algorithmic recourse under imperfect causal knowledge: a probabilistic
approach [15.124107808802703]
真の構造方程式にアクセスできることなく、リコースを保証することは不可能であることを示す。
本稿では,限られた因果的知識が与えられた場合,高い確率で会話を遂行する最適な行動を選択するための2つの確率的アプローチを提案する。
論文 参考訳(メタデータ) (2020-06-11T21:19:07Z) - Fairness-Aware Explainable Recommendation over Knowledge Graphs [73.81994676695346]
ユーザのアクティビティのレベルに応じて異なるグループのユーザを分析し、異なるグループ間での推奨パフォーマンスにバイアスが存在することを確認する。
不活性なユーザは、不活性なユーザのためのトレーニングデータが不十分なため、不満足なレコメンデーションを受けやすい可能性がある。
本稿では、知識グラフに対する説明可能な推奨という文脈で、この問題を緩和するために再ランク付けすることで、公平性に制約されたアプローチを提案する。
論文 参考訳(メタデータ) (2020-06-03T05:04:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。