論文の概要: Selecting for Less Discriminatory Algorithms: A Relational Search Framework for Navigating Fairness-Accuracy Trade-offs in Practice
- arxiv url: http://arxiv.org/abs/2506.01594v1
- Date: Mon, 02 Jun 2025 12:28:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.374575
- Title: Selecting for Less Discriminatory Algorithms: A Relational Search Framework for Navigating Fairness-Accuracy Trade-offs in Practice
- Title(参考訳): 識別の少ないアルゴリズムの選択: フェアネスの正確なトレードオフを実践するための関係検索フレームワーク
- Authors: Hana Samad, Michael Akinwumi, Jameel Khan, Christoph Mügge-Durum, Emmanuel O. Ogundimu,
- Abstract要約: 機械学習モデルは、高い意思決定を通じて社会に組み込まれている。
機械学習モデルが高い意思決定を通じて社会に浸透するにつれて、与えられたタスク、オーディエンス、セクターに対して適切なアルゴリズムを選択することは、重要な課題である。
モデルフェアネスの伝統的な評価は、しばしば客観的な数学的性質としてフェアネスを定式化し、理想的な情報条件下でのモデル選択を最適化問題として扱う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning models are increasingly embedded into society through high-stakes decision-making, selecting the right algorithm for a given task, audience, and sector presents a critical challenge, particularly in the context of fairness. Traditional assessments of model fairness have often framed fairness as an objective mathematical property, treating model selection as an optimization problem under idealized informational conditions. This overlooks model multiplicity as a consideration--that multiple models can deliver similar performance while exhibiting different fairness characteristics. Legal scholars have engaged this challenge through the concept of Less Discriminatory Algorithms (LDAs), which frames model selection as a civil rights obligation. In real-world deployment, this normative challenge is bounded by constraints on fairness experimentation, e.g., regulatory standards, institutional priorities, and resource capacity. Against these considerations, the paper revisits Lee and Floridi (2021)'s relational fairness approach using updated 2021 Home Mortgage Disclosure Act (HMDA) data, and proposes an expansion of the scope of the LDA search process. We argue that extending the LDA search horizontally, considering fairness across model families themselves, provides a lightweight complement, or alternative, to within-model hyperparameter optimization, when operationalizing fairness in non-experimental, resource constrained settings. Fairness metrics alone offer useful, but insufficient signals to accurately evaluate candidate LDAs. Rather, by using a horizontal LDA search approach with the relational trade-off framework, we demonstrate a responsible minimum viable LDA search on real-world lending outcomes. Organizations can modify this approach to systematically compare, evaluate, and select LDAs that optimize fairness and accuracy in a sector-based contextualized manner.
- Abstract(参考訳): 機械学習モデルが高い意思決定を通じて社会に浸透するにつれて、与えられたタスク、オーディエンス、セクターに対して適切なアルゴリズムを選択することは、特に公正な状況において重要な課題となる。
モデルフェアネスの伝統的な評価は、しばしば客観的な数学的性質としてフェアネスを定式化し、理想的な情報条件下でのモデル選択を最適化問題として扱う。
これはモデル多重性を考慮し、複数のモデルが異なる公平性特性を示しながら同様のパフォーマンスを提供できることを見落としている。
法学者は、市民権義務として選択をモデル化するLDA(Little Discriminatory Algorithms)という概念を通じて、この課題に取り組んできた。
現実の展開においては、この規範的課題は公正な実験、例えば規制基準、制度上の優先事項、リソース容量の制約によって制限される。
こうした問題に対して、本稿では、2021年住宅物流開示法(HMDA)データを用いて、リーとフロリディ(2021年)のリレーショナルフェアネスアプローチを再検討し、LDA探索プロセスの範囲の拡大を提案する。
我々は,モデルファミリ間の公平性を考慮し,LDA探索を水平方向に拡張することで,実験的でない資源制約条件下での公平性を運用する場合に,モデル内ハイパーパラメータ最適化に対する軽量補完や代替手段を提供する,と論じている。
公正度測定だけでは、候補のLDAを正確に評価するに足りるが不十分な信号を提供する。
むしろ、リレーショナル・トレードオフ・フレームワークを用いた水平LDA探索手法を用いることで、実世界の貸し出し結果に対する責任を負う最小限のLDA探索を実証する。
組織はこのアプローチを体系的に比較し、評価し、セクターベースの文脈化された方法で公正性と正確性を最適化するLDAを選択することができる。
関連論文リスト
- Is Your Model Fairly Certain? Uncertainty-Aware Fairness Evaluation for LLMs [7.197702136906138]
モデルフェアネスのきめ細かい評価を可能にするため,不確実性を考慮した評価基準であるUCerFを提案する。
現在のデータセットにおけるデータサイズ、多様性、明快さの問題を観察し、新しいジェンダー占有公正度評価データセットを導入する。
我々は、メトリックとデータセットを使用してベンチマークを確立し、それを10のオープンソースAIシステムの動作評価に適用する。
論文 参考訳(メタデータ) (2025-05-29T20:45:18Z) - Exploring Equality: An Investigation into Custom Loss Functions for Fairness Definitions [0.0]
本稿では,Guptaらにより理論的に提案された,新しいグループ精度パリティフレームワークのフェアネス駆動による実装を初めて作成する。
本稿は,CompASの現在の全国的実装と比較して,GAPが公正性と精度の均衡性の向上を実現していることを結論する。
論文 参考訳(メタデータ) (2025-01-03T16:49:17Z) - Fair Bilevel Neural Network (FairBiNN): On Balancing fairness and accuracy via Stackelberg Equilibrium [0.3350491650545292]
バイアスを緩和する現在の方法は、情報損失と精度と公平性のバランスが不十分であることが多い。
本稿では,二段階最適化の原理に基づく新しい手法を提案する。
私たちのディープラーニングベースのアプローチは、正確性と公平性の両方を同時に最適化します。
論文 参考訳(メタデータ) (2024-10-21T18:53:39Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Benchmarking PtO and PnO Methods in the Predictive Combinatorial Optimization Regime [59.27851754647913]
予測最適化(英: Predictive optimization)は、エネルギーコストを意識したスケジューリングや広告予算配分など、多くの現実世界のアプリケーションの正確なモデリングである。
我々は,広告のための新しい産業データセットを含む8つの問題に対して,既存のPtO/PnOメソッド11をベンチマークするモジュラーフレームワークを開発した。
本研究は,8ベンチマーク中7ベンチマークにおいて,PnOアプローチがPtOよりも優れていることを示すが,PnOの設計選択に銀の弾丸は見つからない。
論文 参考訳(メタデータ) (2023-11-13T13:19:34Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。