論文の概要: Fairness and Randomness in Machine Learning: Statistical Independence
and Relativization
- arxiv url: http://arxiv.org/abs/2207.13596v2
- Date: Wed, 16 Nov 2022 09:06:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:10:37.500504
- Title: Fairness and Randomness in Machine Learning: Statistical Independence
and Relativization
- Title(参考訳): 機械学習における公正性とランダム性:統計的独立性と相対性
- Authors: Rabanus Derr and Robert C. Williamson
- Abstract要約: 我々は、機械学習で日常的に使われている公平性とランダム性の概念における統計的独立性の役割を識別する。
我々は、ランダム性と公正性は、機械学習におけるモデリング仮定として、その性質を反映すべきであると主張している。
- 参考スコア(独自算出の注目度): 10.482805367361818
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fair Machine Learning endeavors to prevent unfairness arising in the context
of machine learning applications embedded in society. Despite the variety of
definitions of fairness and proposed "fair algorithms", there remain unresolved
conceptual problems regarding fairness. In this paper, we dissect the role of
statistical independence in fairness and randomness notions regularly used in
machine learning. Thereby, we are led to a suprising hypothesis: randomness and
fairness can be considered equivalent concepts in machine learning.
In particular, we obtain a relativized notion of randomness expressed as
statistical independence by appealing to Von Mises' century-old foundations for
probability. This notion turns out to be "orthogonal" in an abstract sense to
the commonly used i.i.d.-randomness. Using standard fairness notions in machine
learning, which are defined via statistical independence, we then link the ex
ante randomness assumptions about the data to the ex post requirements for fair
predictions. This connection proves fruitful: we use it to argue that
randomness and fairness are essentially relative and that both concepts should
reflect their nature as modeling assumptions in machine learning.
- Abstract(参考訳): 公正な機械学習は、社会に埋め込まれた機械学習アプリケーションという文脈で生じる不公平さを防ぐための努力である。
公正性の様々な定義と「公正アルゴリズム」の提案にもかかわらず、公正性に関する未解決概念問題が存在する。
本稿では,機械学習で定期的に使用される公平性とランダム性概念における統計的独立性の役割を考察する。
これにより、ランダム性と公正性は機械学習における等価な概念と考えることができる。
特に、確率に関するフォン・ミーゼスの古い基礎に訴えることで、統計的独立性として表現される無作為性の相対化概念を得る。
この概念は、一般的に使われる i.i.d.-randomness に対する抽象的な意味での "orthogonal" であることが判明した。
統計的独立性によって定義される機械学習における標準的公平性概念を用いて、データに関する外部ランダム性仮定と公平な予測のためのexポスト要件をリンクする。
ランダム性と公正性は本質的に相対的であり、どちらの概念も機械学習におけるモデリング仮定としてその性質を反映すべきである、と我々は主張する。
関連論文リスト
- Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Identifiability of Causal-based Fairness Notions: A State of the Art [4.157415305926584]
機械学習アルゴリズムは、偏見のある結果/予測を生成することができ、通常は少数派や少数民族に対するものである。
本論文は,機械学習の公正性に特に関係する主要な識別可能性の結果をまとめたものである。
論文 参考訳(メタデータ) (2022-03-11T13:10:32Z) - Explainability for fair machine learning [10.227479910430866]
本稿では,Shapley値のパラダイムに基づく機械学習における公平性を説明するための新しいアプローチを提案する。
我々の公正な説明は、モデルがセンシティブな属性を直接操作していない場合であっても、モデル全体の不公平さを個々の入力特徴に帰着する。
本稿では,既存のトレーニング時間フェアネス介入を適用したメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T20:21:01Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - The Impossibility Theorem of Machine Fairness -- A Causal Perspective [0.15229257192293202]
コミュニティで使用されるマシンフェアネスの目立った指標は3つある。
それら全てを同時に満たすことは不可能であることが統計的に示されている。
論文 参考訳(メタデータ) (2020-07-12T15:56:15Z) - Contextuality scenarios arising from networks of stochastic processes [68.8204255655161]
経験的モデルは、その分布が X 上の合同分布を極小化することができなければ文脈的と言える。
我々は、多くのプロセス間の相互作用という、文脈的経験的モデルの異なる古典的な源泉を示す。
長期にわたるネットワークの統計的挙動は、経験的モデルを一般的な文脈的かつ強い文脈的にする。
論文 参考訳(メタデータ) (2020-06-22T16:57:52Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。