論文の概要: Long Term Fairness for Minority Groups via Performative Distributionally
Robust Optimization
- arxiv url: http://arxiv.org/abs/2207.05777v1
- Date: Tue, 12 Jul 2022 18:11:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 06:37:30.219895
- Title: Long Term Fairness for Minority Groups via Performative Distributionally
Robust Optimization
- Title(参考訳): 実効分布的ロバスト最適化によるマイノリティ群の長期公平性
- Authors: Liam Peet-Pare, Nidhi Hegde, Alona Fyshe
- Abstract要約: 機械学習(ML)のフェアネス研究者は、MLモデルがフェアであることの意味を形式的に定義する、いくつかのフェアネス基準をまとめている。
これらの形式的公正基準の4つの重要な欠点を特定し、分布的ロバストな目標を含むパフォーマンス予測を拡張して、それに対応することを目指している。
- 参考スコア(独自算出の注目度): 6.183483850365225
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fairness researchers in machine learning (ML) have coalesced around several
fairness criteria which provide formal definitions of what it means for an ML
model to be fair. However, these criteria have some serious limitations. We
identify four key shortcomings of these formal fairness criteria, and aim to
help to address them by extending performative prediction to include a
distributionally robust objective.
- Abstract(参考訳): 機械学習(ML)のフェアネス研究者は、MLモデルがフェアであることの意味を形式的に定義する、いくつかのフェアネス基準をまとめている。
しかし、これらの基準には重大な制限がある。
これらの形式的公正基準の4つの重要な欠点を特定し、分布的ロバストな目標を含むパフォーマンス予測を拡張して対処することを目指している。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Uncertainty-based Fairness Measures [14.61416119202288]
機械学習(ML)モデルの異常予測は、現実の環境で広く受け入れられることを妨げる。
本稿では,MLモデルが既存の点ベース公正度尺度と同等であるように見えるが,予測の不確実性の観点からは人口集団に偏っていることを示す。
論文 参考訳(メタデータ) (2023-12-18T15:49:03Z) - Fair Few-shot Learning with Auxiliary Sets [53.30014767684218]
多くの機械学習(ML)タスクでは、ラベル付きデータサンプルしか収集できないため、フェアネスのパフォーマンスが低下する可能性がある。
本稿では,限定的なトレーニングサンプルを用いたフェアネス認識学習課題をemphfair few-shot Learning問題として定義する。
そこで我々は,学習した知識をメタテストタスクに一般化し,様々なメタトレーニングタスクに公平な知識を蓄積する新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2023-08-28T06:31:37Z) - Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization [30.089819400033985]
そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,この2つの学習手法を統一する原理的手法を提案する。
我々は,各グループに対して適切な再重み付けを自動的に生成することにより,結果の目的を最小化する反復最適化アルゴリズムを開発した。
実験の結果,FairDROはスケーラブルで,多様なアプリケーションに容易に適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-01T12:00:37Z) - Lite Unified Modeling for Discriminative Reading Comprehension [68.39862736200045]
本稿では,多様な差別的MRCタスクを同期的に扱うために,POS強化反復協調ネットワーク(POI-Net)を提案する。
私たちのライト統一設計は、エンコーダコンポーネントとデコーダコンポーネントの両方で、モデルに大きな改善をもたらします。
4つの識別的MCCベンチマークによる評価結果から,本モデルの有効性と適用性について一貫した評価結果を得た。
論文 参考訳(メタデータ) (2022-03-26T15:47:19Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - A Systematic Approach to Group Fairness in Automated Decision Making [0.0]
本論文の目的は,データ科学者に対して,グループフェアネス指標の紹介を提供することである。
我々は、公正な言明をするために、社会デマログラフィーグループをどの感覚で比較するかを考えることでこれを行おうとする。
論文 参考訳(メタデータ) (2021-09-09T12:47:15Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。