論文の概要: Metric-Free Individual Fairness in Online Learning
- arxiv url: http://arxiv.org/abs/2002.05474v6
- Date: Sat, 23 Apr 2022 18:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 09:53:24.727430
- Title: Metric-Free Individual Fairness in Online Learning
- Title(参考訳): オンライン学習におけるメトリクスフリー個人公平性
- Authors: Yahav Bechavod, Christopher Jung, Zhiwei Steven Wu
- Abstract要約: 個人的公正性の制約を考慮したオンライン学習問題について検討する。
我々は、個人間の類似度測度が知られていると仮定せず、また、この測度が特定のパラメトリック形式を取ると仮定もしない。
定量的な測定を行なわずに公正な違反を検出する監査者の存在を活用している。
- 参考スコア(独自算出の注目度): 32.56688029679103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study an online learning problem subject to the constraint of individual
fairness, which requires that similar individuals are treated similarly. Unlike
prior work on individual fairness, we do not assume the similarity measure
among individuals is known, nor do we assume that such measure takes a certain
parametric form. Instead, we leverage the existence of an auditor who detects
fairness violations without enunciating the quantitative measure. In each
round, the auditor examines the learner's decisions and attempts to identify a
pair of individuals that are treated unfairly by the learner. We provide a
general reduction framework that reduces online classification in our model to
standard online classification, which allows us to leverage existing online
learning algorithms to achieve sub-linear regret and number of fairness
violations. Surprisingly, in the stochastic setting where the data are drawn
independently from a distribution, we are also able to establish PAC-style
fairness and accuracy generalization guarantees (Rothblum and Yona [2018]),
despite only having access to a very restricted form of fairness feedback. Our
fairness generalization bound qualitatively matches the uniform convergence
bound of Rothblum and Yona [2018], while also providing a meaningful accuracy
generalization guarantee. Our results resolve an open question by Gillen et al.
[2018] by showing that online learning under an unknown individual fairness
constraint is possible even without assuming a strong parametric form of the
underlying similarity measure.
- Abstract(参考訳): 個人的公正性の制約を考慮に入れたオンライン学習問題について検討し,同様の扱いが求められる。
個人的公正に関する以前の研究とは異なり、個人間の類似度尺度が知られているとは仮定せず、またそのような尺度が特定のパラメトリック形式を取ると仮定する。
代わりに,公平性違反を定量化せずに検出する監査者の存在を活用する。
各ラウンドにおいて、監査人は学習者の決定を精査し、学習者によって不公平に扱われる一対の個人を特定しようとする。
我々のモデルにおけるオンライン分類を標準オンライン分類に還元し、既存のオンライン学習アルゴリズムを活用して、サブ線形後悔と公正違反の数を達成するための一般的な還元フレームワークを提供する。
驚いたことに、データが分布から独立して引き出される確率的な環境では、非常に制限された公正フィードバックの形式にしかアクセスできないにもかかわらず、PACスタイルの公正性と精度の一般化保証(Rothblum and Yona (2018))を確立することができる。
我々のフェアネス一般化は定性的にロスブラムとヨナ [2018] の一様収束境界に一致し、同時に有意義な精度の一般化保証を提供する。
我々の結果はギレンらによるオープンな疑問を解決した。
2018] 基礎となる類似度尺度の強いパラメトリック形式を仮定しなくても,未知の個別公平性制約下でのオンライン学習が可能となることを示した。
関連論文リスト
- Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - A Universal Unbiased Method for Classification from Aggregate
Observations [115.20235020903992]
本稿では,任意の損失に対する分類リスクを非バイアスで推定するCFAOの普遍的手法を提案する。
提案手法は,非バイアスリスク推定器によるリスクの整合性を保証するだけでなく,任意の損失に対応できる。
論文 参考訳(メタデータ) (2023-06-20T07:22:01Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Individually Fair Learning with One-Sided Feedback [15.713330010191092]
我々は,学習者が正に予測されたインスタンスに対してのみ真のラベルを観察できる,一方的なフィードバックを伴うオンライン学習問題を考察する。
各ラウンドで$k$インスタンスが到着し、学習者が配置したランダム化ポリシーに従って分類結果を受け取る。
そこで我々は,一方的なフィードバックによるオンライン学習の問題から,文脈的半帯域問題に対する公平性違反を報告したパネルを構築。
論文 参考訳(メタデータ) (2022-06-09T12:59:03Z) - CertiFair: A Framework for Certified Global Fairness of Neural Networks [1.4620086904601473]
個人の公正さは、あるタスクに関して類似した個人が、ニューラルネットワーク(NN)モデルで同じように扱われることを示唆している。
分類タスクにおいて、所定のNNに対してフェアネス特性が保持するかどうかを確認する検証器を構築する。
次に、結果のNNの公平性に関する証明可能なバウンダリを提供する。
論文 参考訳(メタデータ) (2022-05-20T02:08:47Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Distributional Individual Fairness in Clustering [7.303841123034983]
本稿では,距離空間に埋め込まれた個人を,有界なクラスタ中心上の確率分布に割り当てる枠組みを提案する。
p$-norm目的のクラスタリングアルゴリズムと、証明可能な近似保証付き個別フェアネス制約を提案する。
論文 参考訳(メタデータ) (2020-06-22T20:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。