論文の概要: FERMI: Fair Empirical Risk Minimization via Exponential R\'enyi Mutual
Information
- arxiv url: http://arxiv.org/abs/2102.12586v1
- Date: Wed, 24 Feb 2021 22:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-27 00:35:04.512774
- Title: FERMI: Fair Empirical Risk Minimization via Exponential R\'enyi Mutual
Information
- Title(参考訳): FERMI:指数R'enyi相互情報による公正な経験的リスク最小化
- Authors: Andrew Lowy, Rakesh Pavan, Sina Baharlouei, Meisam Razaviyayn, Ahmad
Beirami
- Abstract要約: ERMIは、既存の公正性違反の概念に対する上限保証を提供するという意味で、強い公正性違反概念であることを示す。
FERMIと呼ばれるERMI正規化フレームワークを通じて、公正な経験的リスク最小化を提案します。
- 参考スコア(独自算出の注目度): 17.57634911587209
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a new notion of fairness violation, called
Exponential R\'enyi Mutual Information (ERMI). We show that ERMI is a strong
fairness violation notion in the sense that it provides upper bound guarantees
on existing notions of fairness violation. We then propose the Fair Empirical
Risk Minimization via ERMI regularization framework, called FERMI. Whereas most
existing in-processing fairness algorithms are deterministic, we provide the
first stochastic optimization method with a provable convergence guarantee for
solving FERMI. Our stochastic algorithm is amenable to large-scale problems, as
we demonstrate experimentally. In addition, we provide a batch (deterministic)
algorithm for solving FERMI with the optimal rate of convergence. Both of our
algorithms are applicable to problems with multiple (non-binary) sensitive
attributes and non-binary targets. Extensive experiments show that FERMI
achieves the most favorable tradeoffs between fairness violation and test
accuracy across various problem setups compared with state-of-the-art
baselines.
- Abstract(参考訳): 本稿では,公平性侵害の新しい概念である指数 R'enyi Mutual Information (ERMI) を提案する。
ERMIは、既存の公正性違反の概念に対する上限保証を提供するという意味で、強い公正性違反概念であることを示す。
FERMIと呼ばれるERMI正規化フレームワークを通じて、公正な経験的リスク最小化を提案します。
既存の処理フェアネスアルゴリズムのほとんどが決定論的であるのに対し、フェルミを解くための証明可能な収束保証を備えた最初の確率的最適化手法を提供する。
我々の確率的アルゴリズムは、実験的に示すように、大規模な問題に適応できる。
さらに、最適な収束率でFERMIを解くためのバッチ(決定論的)アルゴリズムを提供します。
どちらのアルゴリズムも、複数の(非バイナリ)敏感属性と非バイナリターゲットの問題に適用可能です。
広範な実験により、FERMIは、最先端のベースラインと比較して、さまざまな問題セットアップにおける公正性違反とテスト精度の最も有利なトレードオフを達成することが示されています。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Multi-Agent Reinforcement Learning from Human Feedback: Data Coverage and Algorithmic Techniques [65.55451717632317]
我々は,MARLHF(Multi-Agent Reinforcement Learning from Human Feedback)について検討し,理論的基礎と実証的検証の両方について検討した。
我々は,このタスクを,一般ゲームにおける嗜好のみのオフラインデータセットからナッシュ均衡を識別するものとして定義する。
本研究は,MARLHFの多面的アプローチを基礎として,効果的な嗜好に基づくマルチエージェントシステムの実現を目指している。
論文 参考訳(メタデータ) (2024-09-01T13:14:41Z) - Best Arm Identification with Fixed Budget: A Large Deviation Perspective [54.305323903582845]
我々は、様々な武器の報酬間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
特に、様々な武器の報酬の間の経験的ギャップに基づいて、あらゆるラウンドで腕を拒絶できる真に適応的なアルゴリズムであるsredを提示する。
論文 参考訳(メタデータ) (2023-12-19T13:17:43Z) - f-FERM: A Scalable Framework for Robust Fair Empirical Risk Minimization [9.591164070876689]
本稿では、f-divergence measures(f-FERM)に基づく公正な経験的リスクに対する統一的な最適化フレームワークを提案する。
さらに,f-FERMによるほぼ全てのバッチサイズに対するフェアネス・精度トレードオフの優位性を実証した。
我々の拡張は、不確実集合として$L_p$ノルムの下で f-FERM の目的を分布的に頑健に最適化する手法に基づいている。
論文 参考訳(メタデータ) (2023-12-06T03:14:16Z) - Exponentially Convergent Algorithms for Supervised Matrix Factorization [2.1485350418225244]
Supervised Factorization (SMF) は、抽出タスクと分類タスクを集約する機械学習手法である。
本稿では,組合わせ係数空間推定における低ランク推定問題としてSMFを'リフト'する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T23:24:02Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Implicitly normalized forecaster with clipping for linear and non-linear
heavy-tailed multi-armed bandits [85.27420062094086]
Implicitly Normalized Forecaster (INF) は、敵対的マルチアームバンディット(MAB)問題に対する最適解であると考えられている。
重み付き設定のMAB問題に対するクリッピング(INFclip)を用いたINFの新バージョン"Implicitly Normalized Forecaster"を提案する。
INFclipは線形重み付きMAB問題に対して最適であり、非線形問題に対して有効であることを示す。
論文 参考訳(メタデータ) (2023-05-11T12:00:43Z) - Multi-Modal Mutual Information Maximization: A Novel Approach for
Unsupervised Deep Cross-Modal Hashing [73.29587731448345]
我々はCross-Modal Info-Max Hashing (CMIMH)と呼ばれる新しい手法を提案する。
モーダル内およびモーダル間の類似性を両立できる情報表現を学習する。
提案手法は、他の最先端のクロスモーダル検索手法よりも一貫して優れている。
論文 参考訳(メタデータ) (2021-12-13T08:58:03Z) - Fairness and Robustness in Invariant Learning: A Case Study in Toxicity
Classification [13.456851070400024]
不変リスク最小化(Invariant Risk Minimization、IRM)は、因果発見にインスパイアされた手法を用いて、堅牢な予測子を見つけるドメイン一般化アルゴリズムである。
IRMは経験的リスク最小化法(ERM)よりも分布外精度と公平性を向上できることを示す。
論文 参考訳(メタデータ) (2020-11-12T16:42:14Z) - Stochastic Hard Thresholding Algorithms for AUC Maximization [49.00683387735522]
分散分類におけるAUCのためのハードしきい値決定アルゴリズムを開発した。
提案アルゴリズムの有効性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-11-04T16:49:29Z) - Thompson Sampling Algorithms for Mean-Variance Bandits [97.43678751629189]
我々は平均分散MABのためのトンプソンサンプリング型アルゴリズムを開発した。
我々はまた、ガウシアンとベルヌーイの盗賊に対する包括的後悔の分析も提供する。
我々のアルゴリズムは、全てのリスク許容度に対して既存のLCBベースのアルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2020-02-01T15:33:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。