論文の概要: A Systematic Approach to Group Fairness in Automated Decision Making
- arxiv url: http://arxiv.org/abs/2109.04230v1
- Date: Thu, 9 Sep 2021 12:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-10 14:00:35.388625
- Title: A Systematic Approach to Group Fairness in Automated Decision Making
- Title(参考訳): 自動意思決定における集団公平性の体系的アプローチ
- Authors: Corinna Hertweck and Christoph Heitz
- Abstract要約: 本論文の目的は,データ科学者に対して,グループフェアネス指標の紹介を提供することである。
我々は、公正な言明をするために、社会デマログラフィーグループをどの感覚で比較するかを考えることでこれを行おうとする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the field of algorithmic fairness has brought forth many ways to
measure and improve the fairness of machine learning models, these findings are
still not widely used in practice. We suspect that one reason for this is that
the field of algorithmic fairness came up with a lot of definitions of
fairness, which are difficult to navigate. The goal of this paper is to provide
data scientists with an accessible introduction to group fairness metrics and
to give some insight into the philosophical reasoning for caring about these
metrics. We will do this by considering in which sense socio-demographic groups
are compared for making a statement on fairness.
- Abstract(参考訳): アルゴリズム的公平性は、機械学習モデルの公平性を計測し改善するための多くの方法をもたらしてきたが、これらの発見はまだ広くは使われていない。
この理由の1つは、アルゴリズム的公平さの分野が多くの公平性の定義を思いついたためであり、それはナビゲートが困難である。
本稿の目的は,データサイエンティストにグループフェアネス指標の紹介を提供し,これらの指標をケアする哲学的理由について考察することである。
我々は、公正な言明をするために、社会デコグラフィグループをどの感覚で比較するかを検討する。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Subjective fairness in algorithmic decision-support [0.0]
意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界を強調するために批判的なスタンスを取る。
我々は、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
論文 参考訳(メタデータ) (2024-06-28T14:37:39Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Everything is Relative: Understanding Fairness with Optimal Transport [1.160208922584163]
バイアスとその構造を解釈可能かつ定量に探索できる公平性への最適輸送ベースアプローチを提案する。
我々のフレームワークは、アルゴリズムによる差別のよく知られた例を復元し、他の指標が失敗したときの不公平さを検知し、レコメンデーションの機会を探ることができる。
論文 参考訳(メタデータ) (2021-02-20T13:57:53Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。