論文の概要: Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents
- arxiv url: http://arxiv.org/abs/2112.02746v1
- Date: Mon, 6 Dec 2021 02:42:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 07:52:39.152712
- Title: Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents
- Title(参考訳): 意識不自由:戦略エージェントを用いたグループフェア分類
- Authors: Andrew Estornell, Sanmay Das, Yang Liu, Yevgeniy Vorobeychik
- Abstract要約: 戦略エージェントは、より良好な結果を得るために観察された特徴ベクトルを操作する能力とインセンティブの両方を持っている可能性があることを示す。
さらに、有利な群が過剰に表現される領域で公平な学習を行う際に、公平な分類器の選択性が増大し、したがって公正さが失われることが示される。
- 参考スコア(独自算出の注目度): 37.31138342300617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of algorithmic decision making systems in domains which impact the
financial, social, and political well-being of people has created a demand for
these decision making systems to be "fair" under some accepted notion of
equity. This demand has in turn inspired a large body of work focused on the
development of fair learning algorithms which are then used in lieu of their
conventional counterparts. Most analysis of such fair algorithms proceeds from
the assumption that the people affected by the algorithmic decisions are
represented as immutable feature vectors. However, strategic agents may possess
both the ability and the incentive to manipulate this observed feature vector
in order to attain a more favorable outcome. We explore the impact that
strategic agent behavior could have on fair classifiers and derive conditions
under which this behavior leads to fair classifiers becoming less fair than
their conventional counterparts under the same measure of fairness that the
fair classifier takes into account. These conditions are related to the the way
in which the fair classifier remedies unfairness on the original unmanipulated
data: fair classifiers which remedy unfairness by becoming more selective than
their conventional counterparts are the ones that become less fair than their
counterparts when agents are strategic. We further demonstrate that both the
increased selectiveness of the fair classifier, and consequently the loss of
fairness, arises when performing fair learning on domains in which the
advantaged group is overrepresented in the region near (and on the beneficial
side of) the decision boundary of conventional classifiers. Finally, we observe
experimentally, using several datasets and learning methods, that this fairness
reversal is common, and that our theoretical characterization of the fairness
reversal conditions indeed holds in most such cases.
- Abstract(参考訳): 人々の経済的、社会的、政治的幸福に影響を与える領域におけるアルゴリズムによる意思決定システムの使用は、この決定システムは、一部の受け入れられた株式概念の下で「公正」であるように要求する。
この需要は、従来の学習アルゴリズムの代わりに使われる公正学習アルゴリズムの開発に焦点をあてた多くの作業にインスピレーションを与えている。
このような公平なアルゴリズムのほとんどの分析は、アルゴリズム決定によって影響を受ける人々は不変な特徴ベクトルとして表現されるという仮定から進行する。
しかし、戦略エージェントは、より好ましい結果を得るために、観測された特徴ベクトルを操作する能力とインセンティブの両方を持っているかもしれない。
戦略エージェントの振る舞いが公平な分類者や導出条件に与える影響について検討し、公正な分類者が公平さを考慮に入れているのと同じ公平さの尺度の下で、公正な分類者の方が従来のものよりも公平ではないことを示す。
これらの条件は、公正分類器が元の非操作データに対して不公平を是正する方法と関係している: 公正分類器は、従来の分類器よりも選択的になり不公平さを是正する。
さらに,従来の分類器の判断境界付近(及び有益側)において,有利な集団が過剰に表現されている領域に対して公平な学習を行うと,フェア分類器の選択性が増大し,その結果フェアネスの喪失が生じることを実証する。
最後に,いくつかのデータセットと学習法を用いて,このフェアネス反転が一般的であること,また,フェアネス反転条件の理論的特徴付けが,そのほとんどにおいて有効であることを実験的に観察した。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity [15.78130132380848]
アルゴリズムによる会話は、AIシステムとのインタラクションにおいて人に対してエージェンシーを与える手段として注目を集めている。
近年の研究では、個人の初期状況の違いにより、会話自体が不公平である可能性があることが示されている。
個人が行動するのに時間がかかるほど、設定が変更される可能性があるからだ。
論文 参考訳(メタデータ) (2024-01-29T11:55:45Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - The Fairness of Credit Scoring Models [0.0]
信用市場において、スクリーニングアルゴリズムは、良いタイプの借主と悪いタイプの借主を区別することを目的としている。
これは意図せず、トレーニングデータセットから、あるいはモデル自体から生まれます。
評価モデルのアルゴリズムフェアネスの形式的検証方法と,フェアネスの欠如の原因となる変数の同定方法を示す。
論文 参考訳(メタデータ) (2022-05-20T14:20:40Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Optimal Transport of Binary Classifiers to Fairness [16.588468396705366]
予測力と公平性の間の効果的なトレードオフを実現するために、最適輸送公正性(OTF)が利用できることを示す。
実験により、OTFは予測力と公平性の間の効果的なトレードオフを達成することができることが示された。
論文 参考訳(メタデータ) (2022-02-08T12:16:24Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Everything is Relative: Understanding Fairness with Optimal Transport [1.160208922584163]
バイアスとその構造を解釈可能かつ定量に探索できる公平性への最適輸送ベースアプローチを提案する。
我々のフレームワークは、アルゴリズムによる差別のよく知られた例を復元し、他の指標が失敗したときの不公平さを検知し、レコメンデーションの機会を探ることができる。
論文 参考訳(メタデータ) (2021-02-20T13:57:53Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。