論文の概要: Exploring Equality: An Investigation into Custom Loss Functions for Fairness Definitions
- arxiv url: http://arxiv.org/abs/2501.01889v1
- Date: Fri, 03 Jan 2025 16:49:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-06 15:12:35.487759
- Title: Exploring Equality: An Investigation into Custom Loss Functions for Fairness Definitions
- Title(参考訳): 平等を探求する - フェアネス定義のためのカスタム損失関数の検討
- Authors: Gordon Lee, Simeon Sayer,
- Abstract要約: 本稿では,Guptaらにより理論的に提案された,新しいグループ精度パリティフレームワークのフェアネス駆動による実装を初めて作成する。
本稿は,CompASの現在の全国的実装と比較して,GAPが公正性と精度の均衡性の向上を実現していることを結論する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper explores the complex tradeoffs between various fairness metrics such as equalized odds, disparate impact, and equal opportunity and predictive accuracy within COMPAS by building neural networks trained with custom loss functions optimized to specific fairness criteria. This paper creates the first fairness-driven implementation of the novel Group Accuracy Parity (GAP) framework, as theoretically proposed by Gupta et al. (2024), and applies it to COMPAS. To operationalize and accurately compare the fairness of COMPAS models optimized to differing fairness ideals, this paper develops and proposes a combinatory analytical procedure that incorporates Pareto front and multivariate analysis, leveraging data visualizations such as violin graphs. This paper concludes that GAP achieves an enhanced equilibrium between fairness and accuracy compared to COMPAS's current nationwide implementation and alternative implementations of COMPAS optimized to more traditional fairness definitions. While this paper's algorithmic improvements of COMPAS significantly augment its fairness, external biases undermine the fairness of its implementation. Practices such as predictive policing and issues such as the lack of transparency regarding COMPAS's internal workings have contributed to the algorithm's historical injustice. In conjunction with developments regarding COMPAS's predictive methodology, legal and institutional changes must happen for COMPAS's just deployment.
- Abstract(参考訳): 本稿では、特定の公正度基準に最適化されたカスタム損失関数をトレーニングしたニューラルネットワークを構築することにより、CompAS内の等化確率、異種影響、等化確率、予測精度などの様々な公正度指標間の複雑なトレードオフについて検討する。
本稿では,Gupta et al (2024) が理論的に提案した,GAP(Group Accuracy Parity)フレームワークのフェアネス駆動による実装をCompASに適用する。
そこで本研究では,パレートフロントと多変量解析を組み込んだ合成解析手法を開発し,ヴァイオリングラフなどのデータ視覚化を活用する。
本稿では,従来のフェアネス定義に最適化されたCompASの現在の全国的実装と代替実装と比較して,GAPはフェアネスと精度の均衡性の向上を実現していると結論づける。
本稿では,CompASのアルゴリズムによる改善により,その公正性は著しく向上するが,外部バイアスは実装の公正性を損なう。
予測的なポリシングやCompASの内部作業に関する透明性の欠如といった問題といったプラクティスは、アルゴリズムの歴史的不正に寄与している。
COMPASの予測方法論に関する進展と合わせて、法的および制度的な変更はCompASの単なる展開に必要である。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Top-K Pairwise Ranking: Bridging the Gap Among Ranking-Based Measures for Multi-Label Classification [120.37051160567277]
本稿では,Top-K Pairwise Ranking(TKPR)という新しい尺度を提案する。
一連の分析により、TKPRは既存のランキングベースの尺度と互換性があることが示されている。
一方,データ依存縮約法という新しい手法に基づいて,提案手法の急激な一般化を確立する。
論文 参考訳(メタデータ) (2024-07-09T09:36:37Z) - On the Maximal Local Disparity of Fairness-Aware Classifiers [35.98015221840018]
種々の予測近傍(MCDP)に沿った最大累積比差という新しい公正度尺度を提案する。
MCDPを精度よく効率的に計算するために,推定誤差の少ない計算複雑性を大幅に低減する,証明可能な精度と近似計算アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-06-05T13:35:48Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Flexible Fairness-Aware Learning via Inverse Conditional Permutation [0.0]
本稿では,逆数学習と新しい逆条件変分スキームを統合した,プロセス内フェアネス対応学習手法であるFairICPを紹介する。
FairICPは、複素および多次元の感度特性によって記述された公正な条件下での等化オッズを促進する理論的に正当化され、柔軟で効率的なスキームを提供する。
論文 参考訳(メタデータ) (2024-04-08T16:57:44Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - Federated Conformal Predictors for Distributed Uncertainty
Quantification [83.50609351513886]
コンフォーマル予測は、機械学習において厳密な不確実性定量化を提供するための一般的なパラダイムとして現れつつある。
本稿では,共形予測を連邦学習環境に拡張する。
本稿では、FL設定に適した部分交換可能性の弱い概念を提案し、それをフェデレート・コンフォーマル予測フレームワークの開発に利用する。
論文 参考訳(メタデータ) (2023-05-27T19:57:27Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Beyond Incompatibility: Trade-offs between Mutually Exclusive Fairness Criteria in Machine Learning and Law [2.959308758321417]
本稿では,3つのフェアネス基準を連続的に補間する新しいアルゴリズム(FAir Interpolation Method: FAIM)を提案する。
我々は,合成データ,CompASデータセット,電子商取引部門による新たな実世界のデータセットに適用した場合のアルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-01T12:47:54Z) - Pareto Efficient Fairness in Supervised Learning: From Extraction to
Tracing [26.704236797908177]
アルゴリズムによる意思決定システムの普及が進んでいる。
測定と精度の本質的にのトレードオフのため、全体的な損失とその他の基準とのトレードオフを確保することが望ましい。
定義に依存しない、つまり、明確に定義された概念を PEF の概念に還元できることを意味する。
論文 参考訳(メタデータ) (2021-04-04T15:49:35Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。