論文の概要: Algorithmic Fairness with Feedback
- arxiv url: http://arxiv.org/abs/2312.03155v1
- Date: Tue, 5 Dec 2023 21:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 16:39:25.740218
- Title: Algorithmic Fairness with Feedback
- Title(参考訳): フィードバックによるアルゴリズム的公平性
- Authors: John W. Patty and Elizabeth Maggie Penn
- Abstract要約: まず、ノイズデータに基づく決定において、公平性アルゴリズムの統計的概念が、公平性の概念とは無関係であることを示す。
次に、公正性、うらやましい自由、偏見の自由性の2つの個別の福祉的概念について議論し、エラーレートバランスと予測パリティに相当する条件を確立する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of algorithmic fairness has rapidly emerged over the past 15 years
as algorithms have become ubiquitous in everyday lives. Algorithmic fairness
traditionally considers statistical notions of fairness algorithms might
satisfy in decisions based on noisy data. We first show that these are
theoretically disconnected from welfare-based notions of fairness. We then
discuss two individual welfare-based notions of fairness, envy freeness and
prejudice freeness, and establish conditions under which they are equivalent to
error rate balance and predictive parity, respectively. We discuss the
implications of these findings in light of the recently discovered
impossibility theorem in algorithmic fairness (Kleinberg, Mullainathan, &
Raghavan (2016), Chouldechova (2017)).
- Abstract(参考訳): アルゴリズムの公平さの分野は、アルゴリズムが日常生活でユビキタスになり、過去15年間に急速に現れてきた。
アルゴリズム的公平性は、伝統的に、公正性アルゴリズムの統計的概念がノイズデータに基づく決定において満足されると考える。
まず, 福祉に基づく公正概念とは理論的に切り離されていることを示す。
次に、公正性、うらやましい自由性、偏見の自由性の2つの個別の福祉的概念について議論し、それぞれエラーレートバランスと予測パリティに相当する条件を確立する。
アルゴリズム的公平性(kleinberg, mullainathan, & raghavan (2016), chouldechova (2017))において最近発見された不確実性定理に照らして,これらの発見の意義について議論する。
関連論文リスト
- Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Counterfactual Fairness Is Basically Demographic Parity [0.0]
公正な意思決定は、倫理的に機械学習アルゴリズムを社会的設定で実装する上で重要である。
また, 対実的公正性を満たすアルゴリズムが, 人口統計学的平等を満足することを示す。
我々は、保護グループ内の個人の秩序を維持するという具体的な公正目標を定式化する。
論文 参考訳(メタデータ) (2022-08-07T23:38:59Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Algorithmic Fairness and Structural Injustice: Insights from Feminist
Political Philosophy [2.28438857884398]
倫理的公正」は、データ駆動アルゴリズムにおける有害なバイアスを軽減することを目的としている。
フェミニスト政治哲学者の社会正義に対する見解は、ほとんど無視されてきた。
本稿では、フェミニストの政治哲学をアルゴリズム的公正性に導く。
論文 参考訳(メタデータ) (2022-06-02T09:18:03Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Efficient First-Order Contextual Bandits: Prediction, Allocation, and
Triangular Discrimination [82.52105963476703]
統計的学習、オンライン学習、その他における繰り返しのテーマは、低騒音の問題に対してより速い収束率が可能であることである。
1次保証は統計的およびオンライン学習において比較的よく理解されている。
三角識別と呼ばれる対数損失と情報理論量が一階保証を得る上で基本的な役割を担っていることを示す。
論文 参考訳(メタデータ) (2021-07-05T19:20:34Z) - An Introduction to Algorithmic Fairness [0.0]
フェアネスに関連する害の種類を列挙し、アルゴリズム的フェアネスの2つの主要な概念を説明し、これらが機械学習開発プロセスに害を与えるバイアスをマップする。
論文 参考訳(メタデータ) (2021-05-12T11:26:34Z) - Metrics and methods for a systematic comparison of fairness-aware
machine learning algorithms [0.0]
この研究はこの種の最も包括的なものである。
フェアネス、予測性能、キャリブレーション品質、28種類のモデリングパイプラインの速度を考慮に入れている。
また,フェアネスを意識したアルゴリズムは,予測力の低下を伴わずにフェアネスを誘導できることがわかった。
論文 参考訳(メタデータ) (2020-10-08T13:58:09Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。