論文の概要: Parametric Fairness with Statistical Guarantees
- arxiv url: http://arxiv.org/abs/2310.20508v1
- Date: Tue, 31 Oct 2023 14:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 14:27:37.436294
- Title: Parametric Fairness with Statistical Guarantees
- Title(参考訳): 統計的保証を伴うパラメトリックフェアネス
- Authors: Fran\c{c}ois HU and Philipp Ratz and Arthur Charpentier
- Abstract要約: 我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness has gained prominence due to societal and regulatory
concerns about biases in Machine Learning models. Common group fairness metrics
like Equalized Odds for classification or Demographic Parity for both
classification and regression are widely used and a host of computationally
advantageous post-processing methods have been developed around them. However,
these metrics often limit users from incorporating domain knowledge. Despite
meeting traditional fairness criteria, they can obscure issues related to
intersectional fairness and even replicate unwanted intra-group biases in the
resulting fair solution. To avoid this narrow perspective, we extend the
concept of Demographic Parity to incorporate distributional properties in the
predictions, allowing expert knowledge to be used in the fair solution. We
illustrate the use of this new metric through a practical example of wages, and
develop a parametric method that efficiently addresses practical challenges
like limited training data and constraints on total spending, offering a robust
solution for real-life applications.
- Abstract(参考訳): アルゴリズムの公平性は、機械学習モデルにおけるバイアスに対する社会的および規制的な懸念によって高まりつつある。
分類や回帰のための等化オッズや人口統計学的パリティのような共通の集団的公平度指標が広く使われ、それらの周りで計算的に有利な後処理法が開発されている。
しかしながら、これらのメトリクスは、しばしばユーザーがドメイン知識を組み込むのを制限します。
伝統的なフェアネス基準を満たしているにもかかわらず、それらは交差するフェアネスに関連する問題を曖昧にし、結果のフェアソリューションに望ましくないグループ内バイアスを複製する。
この狭い視点を避けるため、我々は、予測に分布特性を取り入れ、専門家の知識を公正な解に利用できるように、Demographic Parityの概念を拡張した。
我々は、賃金の実践的な例を通してこの新しい指標の使用を説明し、訓練データや総支出制限といった実践的な課題を効果的に解決し、現実のアプリケーションに堅牢なソリューションを提供するパラメトリック手法を開発した。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Unsupervised Learning of Debiased Representations with Pseudo-Attributes [85.5691102676175]
教師なし方式で,単純かつ効果的な脱バイアス手法を提案する。
特徴埋め込み空間上でクラスタリングを行い、クラスタリング結果を利用して疑似属性を識別する。
次に,非偏り表現を学習するために,クラスタベースの新しい重み付け手法を用いる。
論文 参考訳(メタデータ) (2021-08-06T05:20:46Z) - Learning to Generate Fair Clusters from Demonstrations [27.423983748614198]
本稿では,専門家による限定的な実証に基づいて,問題に対する意図された公平性制約を特定する方法について述べる。
本稿では、実演からフェアネスメトリックを識別し、既存のオフザシェルフクラスタリング技術を用いてクラスタを生成するアルゴリズムを提案する。
本稿では,本手法を用いて解釈可能な解を生成する方法について検討する。
論文 参考訳(メタデータ) (2021-02-08T03:09:33Z) - Beyond traditional assumptions in fair machine learning [5.029280887073969]
この論文は、連続的な意思決定における公正性に対する従来の機械学習アプローチの基礎となる一般的な仮定を精査する。
観測データの統計的特性に基づいたグループフェアネス基準は, 基本的に限定的であることを示す。
我々は、機密データが実際に容易に利用できるという仮定を克服する。
論文 参考訳(メタデータ) (2021-01-29T09:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。