論文の概要: What-is and How-to for Fairness in Machine Learning: A Survey,
Reflection, and Perspective
- arxiv url: http://arxiv.org/abs/2206.04101v2
- Date: Fri, 2 Jun 2023 06:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 21:18:36.020391
- Title: What-is and How-to for Fairness in Machine Learning: A Survey,
Reflection, and Perspective
- Title(参考訳): 機械学習におけるフェアネスのための方法と方法: 調査, 振り返り, 展望
- Authors: Zeyu Tang, Jiji Zhang, Kun Zhang
- Abstract要約: 機械学習文学においてこれまで提案されてきたフェアネスの概念を概観し,考察する。
また、現在の予測と決定によって引き起こされる長期的な影響についても検討する。
本稿では、目的を達成するために、ミッション(どんな公正を強制したいのか)と手段(どの公正分析が興味を持つのか)を一致させることの重要性を示す。
- 参考スコア(独自算出の注目度): 13.124434298120494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness has attracted increasing attention in the machine
learning community. Various definitions are proposed in the literature, but the
differences and connections among them are not clearly addressed. In this
paper, we review and reflect on various fairness notions previously proposed in
machine learning literature, and make an attempt to draw connections to
arguments in moral and political philosophy, especially theories of justice. We
also consider fairness inquiries from a dynamic perspective, and further
consider the long-term impact that is induced by current prediction and
decision. In light of the differences in the characterized fairness, we present
a flowchart that encompasses implicit assumptions and expected outcomes of
different types of fairness inquiries on the data generating process, on the
predicted outcome, and on the induced impact, respectively. This paper
demonstrates the importance of matching the mission (which kind of fairness one
would like to enforce) and the means (which spectrum of fairness analysis is of
interest, what is the appropriate analyzing scheme) to fulfill the intended
purpose.
- Abstract(参考訳): アルゴリズムの公正さは、機械学習コミュニティで注目を集めている。
文献では様々な定義が提案されているが、その違いや関連性は明確ではない。
本稿では、機械学習文学で提案されている様々な公平性概念を見直し、考察し、道徳哲学や政治哲学、特に正義論の議論との関連を考察する。
また,現在の予測と意思決定によって引き起こされる長期的影響についても,動的観点から公平性に関する問合せを考察する。
識別された公平性の違いに照らして,データ生成過程,予測結果,誘導影響について,異なる種類の公平性質問の暗黙の仮定と期待結果とを包含するフローチャートを提案する。
本稿では、目的を達成するために、ミッション(どんな公正を強制したいのか)と手段(どの公正分析が興味を持つのか、適切な分析手法は何か)を一致させることの重要性を示す。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - On Prediction-Modelers and Decision-Makers: Why Fairness Requires More
Than a Fair Prediction Model [1.3996171129586732]
予測に基づく意思決定の分野における暗黙の曖昧さは、予測の概念と決定の関係を考察する。
これら2つの要素が予測に基づく決定システムの最終的な公平性にどう影響するかを示す。
本稿では,予測に基づく意思決定において公平性を生み出す概念論理の理解と推論を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-09T10:34:42Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Survey on Fairness Notions and Related Tensions [4.257210316104905]
自動化された意思決定システムは、雇用やローンの貸与といった問題において、逐次的な決定を下すのにますます使われています。
しかし、客観的機械学習(ML)アルゴリズムはバイアスを起こしやすいため、不公平な判断を下す。
本稿では、一般的に使われている公正概念を調査し、プライバシと精度で両者間の緊張関係について論じる。
論文 参考訳(メタデータ) (2022-09-16T13:36:05Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Promises and Challenges of Causality for Ethical Machine Learning [2.1946447418179664]
我々は「潜在的成果の枠組み」に基づく因果フェアネスの適切な適用条件を策定する。
我々は、因果的公平性文学においてしばしば無視される因果的推論の重要な側面を強調した。
このような介入の概念化は因果的仮定の妥当性を評価する上で重要であると我々は主張する。
論文 参考訳(メタデータ) (2022-01-26T00:04:10Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Who Gets What, According to Whom? An Analysis of Fairness Perceptions in
Service Allocation [2.69180747382622]
公正感の「Who」と「What」と「How」の交点における5つの新しい研究課題を実験的に検討した。
以上の結果から,少なくとも1つの理論的な視点では説明できない「Who」と「What」は,公正さの認識をどのように測定するか,あるいはアルゴリズムによる意思決定システムに統合すべきかに重要な意味を持っていることが示唆された。
論文 参考訳(メタデータ) (2021-05-10T15:31:22Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。