論文の概要: On the Choice of Fairness: Finding Representative Fairness Metrics for a
Given Context
- arxiv url: http://arxiv.org/abs/2109.05697v1
- Date: Mon, 13 Sep 2021 04:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:12:53.971428
- Title: On the Choice of Fairness: Finding Representative Fairness Metrics for a
Given Context
- Title(参考訳): 公平性の選択について:特定の文脈における代表的公平性指標の探索
- Authors: Hadis Anahideh, Nazanin Nezami, Abolfazl Asudeh
- Abstract要約: フェアネスの様々な概念が定義されているが、適切な計量を選択することは困難である。
トレードオフと不合理な定理により、そのような選択はさらに複雑で議論を呼んでいる。
そこで本稿では,あるコンテキストに対して異なる測度間の相関関係とトレードオフを自動的に検出するフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.667221573173013
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is of critical importance to be aware of the historical discrimination
embedded in the data and to consider a fairness measure to reduce bias
throughout the predictive modeling pipeline. Various notions of fairness have
been defined, though choosing an appropriate metric is cumbersome. Trade-offs
and impossibility theorems make such selection even more complicated and
controversial. In practice, users (perhaps regular data scientists) should
understand each of the measures and (if possible) manually explore the
combinatorial space of different measures before they can decide which
combination is preferred based on the context, the use case, and regulations.
To alleviate the burden of selecting fairness notions for consideration, we
propose a framework that automatically discovers the correlations and
trade-offs between different pairs of measures for a given context. Our
framework dramatically reduces the exploration space by finding a small subset
of measures that represent others and highlighting the trade-offs between them.
This allows users to view unfairness from various perspectives that might
otherwise be ignored due to the sheer size of the exploration space. We
showcase the validity of the proposal using comprehensive experiments on
real-world benchmark data sets.
- Abstract(参考訳): データに埋め込まれた歴史的差別に気付くことが重要であり、予測モデリングパイプライン全体を通してバイアスを減らすための公正度尺度を考えることが重要である。
公正性の様々な概念が定義されているが、適切な計量を選択することは面倒である。
トレードオフと不可能定理により、そのような選択はさらに複雑で議論の的になる。
実際には、ユーザ(通常データサイエンティスト)は、それぞれの指標を理解し、(可能であれば)異なる尺度の組合せ空間を手作業で探索し、コンテキスト、ユースケース、規制に基づいてどの組み合わせが望ましいかを決定する必要がある。
公平性概念の選択の重荷を緩和するために,与えられた文脈に対する異なる尺度間の相関やトレードオフを自動的に発見する枠組みを提案する。
我々のフレームワークは、他者を表す小さな尺度のサブセットを見つけ、それらの間のトレードオフを強調することで、探索空間を劇的に減らします。
これにより、探検空間の大きさによって無視される可能性のある様々な視点から不公平を見ることができる。
実世界のベンチマークデータセットに包括的実験を用いて提案手法の有効性を示す。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Does Machine Bring in Extra Bias in Learning? Approximating Fairness in Models Promptly [2.002741592555996]
機械学習モデルの識別レベルを評価するための既存の技術には、一般的に使用されるグループと個別の公正度尺度が含まれる。
本稿では,集合間の距離に基づく「HFM(Harmonic Fairness measure)」を提案する。
実験結果から,提案した公正度尺度 HFM が有効であり,提案した ApproxDist が有効かつ効率的であることが示唆された。
論文 参考訳(メタデータ) (2024-05-15T11:07:40Z) - In Search of Insights, Not Magic Bullets: Towards Demystification of the
Model Selection Dilemma in Heterogeneous Treatment Effect Estimation [92.51773744318119]
本稿では,異なるモデル選択基準の長所と短所を実験的に検討する。
選択戦略,候補推定器,比較に用いるデータの間には,複雑な相互作用があることを強調した。
論文 参考訳(メタデータ) (2023-02-06T16:55:37Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Adaptive Data Debiasing through Bounded Exploration and Fairness [19.082622108240585]
アルゴリズム決定規則の訓練に使用される既存のデータセットのバイアスは、倫理的、社会的、経済的懸念を提起する。
本稿では,適応探索と有界探索により,これらのデータセットを逐次デバイアスするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-25T15:50:10Z) - Everything is Relative: Understanding Fairness with Optimal Transport [1.160208922584163]
バイアスとその構造を解釈可能かつ定量に探索できる公平性への最適輸送ベースアプローチを提案する。
我々のフレームワークは、アルゴリズムによる差別のよく知られた例を復元し、他の指標が失敗したときの不公平さを検知し、レコメンデーションの機会を探ることができる。
論文 参考訳(メタデータ) (2021-02-20T13:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。