論文の概要: Increasing Fairness in Compromise on Accuracy via Weighted Vote with
Learning Guarantees
- arxiv url: http://arxiv.org/abs/2301.10813v1
- Date: Wed, 25 Jan 2023 20:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 15:04:12.321165
- Title: Increasing Fairness in Compromise on Accuracy via Weighted Vote with
Learning Guarantees
- Title(参考訳): 学習保証を伴う重み付け投票による正確性妥協の公平性向上
- Authors: Yijun Bian, Kun Zhang
- Abstract要約: 本稿では,二進二等分類と多等分類に適合する重み付き投票による期待値品質の新たな分析法を提案する。
本稿では,支配とパレートの最適性の概念に基づくプルーニング手法を提案する。
- 参考スコア(独自算出の注目度): 9.814114737627548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As the bias issue is being taken more and more seriously in widely applied
machine learning systems, the decrease in accuracy in most cases deeply
disturbs researchers when increasing fairness. To address this problem, we
present a novel analysis of the expected fairness quality via weighted vote,
suitable for both binary and multi-class classification. The analysis takes the
correction of biased predictions by ensemble members into account and provides
learning bounds that are amenable to efficient minimisation. We further propose
a pruning method based on this analysis and the concepts of domination and
Pareto optimality, which is able to increase fairness under a prerequisite of
little or even no accuracy decline. The experimental results indicate that the
proposed learning bounds are faithful and that the proposed pruning method can
indeed increase ensemble fairness without much accuracy degradation.
- Abstract(参考訳): 偏りの問題は、広く応用された機械学習システムにおいてますます深刻に受け止められているため、精度の低下は、公平性を高める際に研究者を深く妨げている。
そこで本研究では,二分分類と多クラス分類の両方に適合する重み付け投票による公平性評価の新たな分析法を提案する。
この分析は、メンバーをアンサンブルすることでバイアス付き予測を補正し、効率的な最小化が可能な学習境界を提供する。
さらに,本解析と支配とパレートの最適性の概念に基づく刈り取り手法を提案する。
実験の結果,提案する学習境界は忠実であり,提案手法は精度を損なうことなくアンサンブルフェア性を高めることができることがわかった。
関連論文リスト
- Intersectional Two-sided Fairness in Recommendation [41.96733939002468]
IFR(Inter-sectional Two-sided Fairness Recommendation)と呼ばれる新しいアプローチを提案する。
提案手法は,不利な群を知覚するシャープネス・アウェア・ロスを利用して協調的損失バランスを用いて,異なる交叉群に対して一貫した識別能力を開発する。
提案手法は, 両面の不公平性を効果的に軽減し, 従来手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2024-02-05T08:56:24Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Fair Federated Learning via Bounded Group Loss [37.72259706322158]
本稿では,実証的公正なフェデレーション学習のための一般的なフレームワークを提案する。
我々は、有界群損失の概念を、群フェアネスに対する理論的に基底的なアプローチとして拡張する。
提案手法の収束保証と結果の正当性保証を提供する。
論文 参考訳(メタデータ) (2022-03-18T23:11:54Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。