論文の概要: Fairness Hacking: The Malicious Practice of Shrouding Unfairness in
Algorithms
- arxiv url: http://arxiv.org/abs/2311.06826v1
- Date: Sun, 12 Nov 2023 12:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 16:58:15.677321
- Title: Fairness Hacking: The Malicious Practice of Shrouding Unfairness in
Algorithms
- Title(参考訳): フェアネスハッキング:アルゴリズムの不公平さを損なう悪質な行為
- Authors: Kristof Meding, Thilo Hagendorff
- Abstract要約: 我々は,アルゴリズムの不正性を軽視する目的で,「フェアネスハッキング」と呼ぶプラクティスについて述べる。
これにより、学習アルゴリズムに依存するエンドユーザや、公正なAIプラクティスに関心のある広いコミュニティに影響を与える。
本論文は,フェアネス指標の誤用を防止あるいは軽減するために,フェアネスコミュニティ内での議論のガイダンスとして機能することを目的としている。
- 参考スコア(独自算出の注目度): 2.9914612342004503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in machine learning (ML) is an ever-growing field of research due to
the manifold potential for harm from algorithmic discrimination. To prevent
such harm, a large body of literature develops new approaches to quantify
fairness. Here, we investigate how one can divert the quantification of
fairness by describing a practice we call "fairness hacking" for the purpose of
shrouding unfairness in algorithms. This impacts end-users who rely on learning
algorithms, as well as the broader community interested in fair AI practices.
We introduce two different categories of fairness hacking in reference to the
established concept of p-hacking. The first category, intra-metric fairness
hacking, describes the misuse of a particular metric by adding or removing
sensitive attributes from the analysis. In this context, countermeasures that
have been developed to prevent or reduce p-hacking can be applied to similarly
prevent or reduce fairness hacking. The second category of fairness hacking is
inter-metric fairness hacking. Inter-metric fairness hacking is the search for
a specific fair metric with given attributes. We argue that countermeasures to
prevent or reduce inter-metric fairness hacking are still in their infancy.
Finally, we demonstrate both types of fairness hacking using real datasets. Our
paper intends to serve as a guidance for discussions within the fair ML
community to prevent or reduce the misuse of fairness metrics, and thus reduce
overall harm from ML applications.
- Abstract(参考訳): 機械学習におけるフェアネス(英: Fairness in machine learning, ML)は、アルゴリズムの識別による有害な多様体ポテンシャルによる、継続的な研究分野である。
このような害を防ぐため、多くの文献が公正性を定量化するための新しいアプローチを開発した。
ここでは、アルゴリズムの不公平さを隠蔽する目的で「フェアネスハッキング」と呼ぶプラクティスを説明することによって、フェアネスの定量化をいかに分散させるかを検討する。
これにより、学習アルゴリズムに依存するエンドユーザや、公正なAIプラクティスに関心のある広いコミュニティに影響を与える。
p-hacking(p-hacking)の概念を参考に、フェアネスハックの2つのカテゴリを紹介した。
最初のカテゴリであるintra-metric fairness hackは、分析から機密性の高い属性を追加または削除することで、特定のメトリックの誤用を記述する。
この文脈では、pハッキングの防止や削減のために開発された対策を、同様にフェアネスハッキングの防止や軽減に応用することができる。
フェアネスハッキングの第2のカテゴリは、メトリックフェアネスハッキングである。
メトリック間のフェアネスハッキングは、特定の属性を持つ特定のフェアネスメトリックの検索である。
我々は、メトリックフェアネスハッキングを予防または軽減するための対策は、まだ初期段階にあると論じる。
最後に,実データを用いた公平性ハッキングの両タイプを実演する。
本稿は、公平度メトリクスの誤用を防止または低減し、mlアプリケーション全体の害を軽減すべく、公正なmlコミュニティ内の議論のガイダンスとして機能することを目的としています。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Counterfactual Fairness Is Basically Demographic Parity [0.0]
公正な意思決定は、倫理的に機械学習アルゴリズムを社会的設定で実装する上で重要である。
また, 対実的公正性を満たすアルゴリズムが, 人口統計学的平等を満足することを示す。
我々は、保護グループ内の個人の秩序を維持するという具体的な公正目標を定式化する。
論文 参考訳(メタデータ) (2022-08-07T23:38:59Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Fairness without Demographics through Adversarially Reweighted Learning [20.803276801890657]
保護されたグループメンバーシップさえ知らない場合、フェアネスを改善するためにMLモデルをトレーニングします。
特に,非保護機能やタスクラベルは公平性の問題を特定する上で有用である,という仮説を立てる。
以上の結果から,ARLはRawlsian Max-Minフェアネスを向上し,複数のデータセットにおける最悪の保護グループに対するAUCの顕著な改善が見られた。
論文 参考訳(メタデータ) (2020-06-23T16:06:52Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。