論文の概要: Fair for All: Best-effort Fairness Guarantees for Classification
- arxiv url: http://arxiv.org/abs/2012.10216v4
- Date: Wed, 24 Feb 2021 10:54:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 18:00:10.665815
- Title: Fair for All: Best-effort Fairness Guarantees for Classification
- Title(参考訳): fair for all: 分類のためのベストエフォートフェアネス保証
- Authors: Anilesh K. Krishnaswamy, Zhihao Jiang, Kangning Wang, Yu Cheng, and
Kamesh Munagala
- Abstract要約: 群に基づくフェアネスの概念は、既知の群全体のパフォーマンスの絶対測度を等化しようとする。
我々は、クラス $mathcalg$ における各グループ $g$ の保証は、$g$ の最高の分類器のパフォーマンスと関係しているという概念を提案する。
私たちはアルゴリズムを現実世界のデータセットでテストし、パフォーマンスに関する興味深い比較洞察を提供します。
- 参考スコア(独自算出の注目度): 11.818794470895837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard approaches to group-based notions of fairness, such as \emph{parity}
and \emph{equalized odds}, try to equalize absolute measures of performance
across known groups (based on race, gender, etc.). Consequently, a group that
is inherently harder to classify may hold back the performance on other groups;
and no guarantees can be provided for unforeseen groups. Instead, we propose a
fairness notion whose guarantee, on each group $g$ in a class $\mathcal{G}$, is
relative to the performance of the best classifier on $g$. We apply this notion
to broad classes of groups, in particular, where (a) $\mathcal{G}$ consists of
all possible groups (subsets) in the data, and (b) $\mathcal{G}$ is more
streamlined.
For the first setting, which is akin to groups being completely unknown, we
devise the {\sc PF} (Proportional Fairness) classifier, which guarantees, on
any possible group $g$, an accuracy that is proportional to that of the optimal
classifier for $g$, scaled by the relative size of $g$ in the data set. Due to
including all possible groups, some of which could be too complex to be
relevant, the worst-case theoretical guarantees here have to be proportionally
weaker for smaller subsets.
For the second setting, we devise the {\sc BeFair} (Best-effort Fair)
framework which seeks an accuracy, on every $g \in \mathcal{G}$, which
approximates that of the optimal classifier on $g$, independent of the size of
$g$. Aiming for such a guarantee results in a non-convex problem, and we design
novel techniques to get around this difficulty when $\mathcal{G}$ is the set of
linear hypotheses. We test our algorithms on real-world data sets, and present
interesting comparative insights on their performance.
- Abstract(参考訳): 群に基づくフェアネスの概念(例えば \emph{parity} や \emph{equalized odds} )に対する標準的なアプローチは、既知のグループ(人種、性別など)におけるパフォーマンスの絶対測度を等化しようとする。
その結果、本質的に分類が難しいグループは、他のグループのパフォーマンスを抑えることができ、予期せぬグループに対する保証は提供されない。
代わりに、クラス $\mathcal{g}$ における各グループ $g$ は、$g$ における最高の分類器のパフォーマンスと関係しているという公平性の概念を提案する。
特に、(a)$\mathcal{G}$はデータ内のすべての可能な群(部分集合)で構成され、(b)$\mathcal{G}$はより合理化されている。
最初の設定は、完全に未知である群に似ており、任意の可能なグループに対して$g$ を保証する {\sc pf} (proportional fairness) 分類器を考案し、データセット内の$g$ の相対的なサイズでスケールされた$g$ の最適分類器のそれと比例する精度を保証します。
すべての可能な群を含むため、それらのいくつかは関連付けるには複雑すぎる可能性があるため、ここでの最悪の理論的保証はより小さな部分集合に対して比例的に弱くなる必要がある。
2つ目の設定では、$g$の任意の$g \in \mathcal{G}$に対して精度を求める {\sc BeFair} (Best-effort Fair)フレームワークを考案する。
このような保証を目指して非凸問題が発生し、$\mathcal{g}$ が線形仮説の集合であるときにこの困難を回避するための新しい手法を設計する。
実世界のデータセット上でアルゴリズムをテストし、その性能に関する興味深い比較知見を示す。
関連論文リスト
- Relax and Merge: A Simple Yet Effective Framework for Solving Fair $k$-Means and $k$-sparse Wasserstein Barycenter Problems [8.74967598360817]
複数のグループからなるデータセットが与えられた場合、公正性制約は各クラスタに各グループからのポイントの割合を含む必要がある。
我々はRelax と Merge' のフレームワークを提案し、$rho$ は既製のvanilla $k$-means アルゴリズムの近似比である。
PTASが$k$-meansである場合、我々の解は、フェアネス制約にわずかに違反するだけで、$(5+O(epsilon))$の近似比を達成できる。
論文 参考訳(メタデータ) (2024-11-02T02:50:12Z) - The Real Price of Bandit Information in Multiclass Classification [73.17969992976501]
バンディットフィードバックを用いた複数クラス分類の古典的問題を再考する。
我々は, 後悔すべき$smashwidetildeO(|H|+sqrtT)$を保証する新しい帯域分類アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-16T12:11:09Z) - Fair Active Ranking from Pairwise Preferences [6.102498508368527]
解離群に属する$n$の項目が与えられたとき、我々のゴールは、我々が提案する公正な目的関数に従って$(epsilon, delta)$-PACF-Rankingを見つけることである。
グループブラインドとグループアウェアの両方のアルゴリズムを提示し,そのサンプルパラメータを解析する。
論文 参考訳(メタデータ) (2024-02-05T18:09:48Z) - Agnostic Multi-Group Active Learning [24.97598179536084]
能動的学習の観点から,この問題の変種を考察し,学習者がコレクションの各分布からどの例をラベル付けするかを判断する権限を付与する。
我々の主な課題は、不一致に基づくアクティブラーニングのような標準的なアクティブラーニング技術が、マルチグループラーニングの目的に直接適用されないことである。
既存のアルゴリズムを改良し、多群学習の非依存的な定式化のための一貫した能動的学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-06-02T21:24:13Z) - Scalable Differentially Private Clustering via Hierarchically Separated
Trees [82.69664595378869]
我々は,最大$O(d3/2log n)cdot OPT + O(k d2 log2 n / epsilon2)$,$epsilon$はプライバシ保証であることを示す。
最悪の場合の保証は、最先端のプライベートクラスタリング手法よりも悪いが、提案するアルゴリズムは実用的である。
論文 参考訳(メタデータ) (2022-06-17T09:24:41Z) - Metric-Fair Classifier Derandomization [6.269732593554894]
機械学習における分類器のデランドマイズ問題について検討する。
事前のデランドマイズ法は, ほぼ最大値の不等式であることを示す。
我々はこれらの2つの間の魅力的なトレードオフを提供するデランドマイズ手順を考案する。
論文 参考訳(メタデータ) (2022-06-15T21:36:57Z) - FriendlyCore: Practical Differentially Private Aggregation [67.04951703461657]
我々は、制約のない(擬似)計量空間から点の集合を$cal D$として取り出す、単純で実用的なツールである$mathsfFriendlyCore$を提案する。
$cal D$ が有効直径 $r$ を持つとき、$mathsfFriendlyCore$ はすべての点を含む "stable" サブセット $cal D_Gsubseteq cal D$ を返す。
$mathsfFriendlyCore$は、プライベートに集約する前に入力を前処理するために使用することができる。
論文 参考訳(メタデータ) (2021-10-19T17:43:50Z) - Under-bagging Nearest Neighbors for Imbalanced Classification [63.026765294759876]
我々は,不均衡な分類問題に対して,textitunder-bagging $k$-NN (textitunder-bagging $k$-NN) というアンサンブル学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:10:38Z) - Fuzzy Clustering with Similarity Queries [56.96625809888241]
ファジィ(fuzzy, soft objective)は、よく知られた$k$-means問題の一般化である。
クエリを少なくすることで、問題の解決が容易になる。
論文 参考訳(メタデータ) (2021-06-04T02:32:26Z) - Multi-group Agnostic PAC Learnability [7.9649015115693444]
マルチグループ非依存型PAC学習可能性」について検討する。
このような予測器が存在することが保証される損失関数のキャラクタリゼーションを提供する。
本研究は,複数群フェアネス文献から得られた前向きおよび負の結果を統一し,拡張するものである。
論文 参考訳(メタデータ) (2021-05-20T18:43:36Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。