論文の概要: SLIDE: a surrogate fairness constraint to ensure fairness consistency
- arxiv url: http://arxiv.org/abs/2202.03165v1
- Date: Mon, 7 Feb 2022 13:50:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 14:34:12.789335
- Title: SLIDE: a surrogate fairness constraint to ensure fairness consistency
- Title(参考訳): SLIDE:フェアネスの整合性を確保するための代理フェアネス制約
- Authors: Kunwoong Kim, Ilsang Ohn, Sara Kim, and Yongdai Kim
- Abstract要約: 本稿では, SLIDE と呼ばれる新しい代用フェアネス制約を提案し, 高速収束率を実現する。
数値実験により、SLIDEは様々なベンチマークデータセットでうまく機能することを確認した。
- 参考スコア(独自算出の注目度): 1.3649494534428745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As they have a vital effect on social decision makings, AI algorithms should
be not only accurate and but also fair. Among various algorithms for fairness
AI, learning a prediction model by minimizing the empirical risk (e.g.,
cross-entropy) subject to a given fairness constraint has received much
attention. To avoid computational difficulty, however, a given fairness
constraint is replaced by a surrogate fairness constraint as the 0-1 loss is
replaced by a convex surrogate loss for classification problems. In this paper,
we investigate the validity of existing surrogate fairness constraints and
propose a new surrogate fairness constraint called SLIDE, which is
computationally feasible and asymptotically valid in the sense that the learned
model satisfies the fairness constraint asymptotically and achieves a fast
convergence rate. Numerical experiments confirm that the SLIDE works well for
various benchmark datasets.
- Abstract(参考訳): 社会的な意思決定に重要な影響を与えるため、AIアルゴリズムは正確であるだけでなく公平であるべきだ。
フェアネスAIのための様々なアルゴリズムの中で、与えられたフェアネス制約の対象となる経験的リスク(例えば、クロスエントロピー)を最小限にして予測モデルを学ぶことが注目されている。
しかし、計算の難しさを避けるため、分類問題では0-1の損失が凸サーロゲート損失に置き換えられるため、与えられたフェアネス制約をサーロゲートフェアネス制約に置き換える。
本稿では,既存のサロゲートフェアネス制約の有効性を検証し,学習モデルがフェアネス制約を漸近的に満たし,高速収束率を達成するという意味で計算可能かつ漸近的に有効であるslideと呼ばれる新しいサロゲートフェアネス制約を提案する。
数値実験により、SLIDEは様々なベンチマークデータセットでうまく機能することを確認した。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Flexible Fairness-Aware Learning via Inverse Conditional Permutation [0.0]
本稿では,逆数学習と新しい逆条件変分スキームを統合した,プロセス内フェアネス対応学習手法であるFairICPを紹介する。
FairICPは、複素および多次元の感度特性によって記述された公正な条件下での等化オッズを促進する理論的に正当化され、柔軟で効率的なスキームを提供する。
論文 参考訳(メタデータ) (2024-04-08T16:57:44Z) - Understanding Fairness Surrogate Functions in Algorithmic Fairness [21.555040357521907]
フェアネスの定義とフェアネスのサロゲート関数の間には、サロゲートとフェアネスのギャップがあることが示される。
我々は、不公平を緩和するギャップを反復的に減少させる「バランスド・サロゲート」という、新規で一般的なアルゴリズムを精査する。
論文 参考訳(メタデータ) (2023-10-17T12:40:53Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - Group Fairness with Uncertainty in Sensitive Attributes [34.608332397776245]
公正な予測モデルは、ハイテイクなアプリケーションにおける少数派グループに対する偏見のある決定を緩和するために不可欠である。
本稿では, 感度特性の不確実性にも拘わらず, フェアネスの目標レベルを達成するブートストラップに基づくアルゴリズムを提案する。
本アルゴリズムは離散的属性と連続的属性の両方に適用可能であり,実世界の分類や回帰作業に有効である。
論文 参考訳(メタデータ) (2023-02-16T04:33:00Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Calibrated Data-Dependent Constraints with Exact Satisfaction Guarantees [46.94549066382216]
データに依存した制約で機械学習モデルを訓練する作業について検討する。
我々は、データ依存の制約を校正するように修正し、修正された制約を強制することで、期待値の制約がユーザによって規定された確率で満たされることを保証する。
論文 参考訳(メタデータ) (2023-01-15T21:41:40Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Identifying Best Fair Intervention [7.563864405505623]
本研究では,所定の因果モデルにおけるフェアネス制約付き腕識別の問題について検討する。
この問題は、オンラインマーケットプレースにおける公正性の確保によって動機づけられている。
論文 参考訳(メタデータ) (2021-11-08T04:36:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。