論文の概要: The Fairness Field Guide: Perspectives from Social and Formal Sciences
- arxiv url: http://arxiv.org/abs/2201.05216v1
- Date: Thu, 13 Jan 2022 21:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-18 00:48:41.766616
- Title: The Fairness Field Guide: Perspectives from Social and Formal Sciences
- Title(参考訳): the fairness field guide: perspectives from social and formal sciences (特集 フェアネスフィールドガイド)
- Authors: Alycia N. Carey and Xintao Wu
- Abstract要約: 公正な機械学習と哲学、社会学、法学との相互作用を説明する文献が欠如している。
我々はいくつかの統計学および因果関係に基づく公正な機械学習手法の数学的およびアルゴリズム的背景について述べる。
我々は、社会学的・哲学的な観点から、公正な機械学習への現在のアプローチに対する批判をいくつか探求する。
- 参考スコア(独自算出の注目度): 16.53498469585148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past several years, a slew of different methods to measure the
fairness of a machine learning model have been proposed. However, despite the
growing number of publications and implementations, there is still a critical
lack of literature that explains the interplay of fair machine learning with
the social sciences of philosophy, sociology, and law. We hope to remedy this
issue by accumulating and expounding upon the thoughts and discussions of fair
machine learning produced by both social and formal (specifically machine
learning and statistics) sciences in this field guide. Specifically, in
addition to giving the mathematical and algorithmic backgrounds of several
popular statistical and causal-based fair machine learning methods, we explain
the underlying philosophical and legal thoughts that support them. Further, we
explore several criticisms of the current approaches to fair machine learning
from sociological and philosophical viewpoints. It is our hope that this field
guide will help fair machine learning practitioners better understand how their
algorithms align with important humanistic values (such as fairness) and how we
can, as a field, design methods and metrics to better serve oppressed and
marginalized populaces.
- Abstract(参考訳): 過去数年間にわたり、機械学習モデルの公平性を測定するための様々な方法が提案されてきた。
しかし、出版物や実装が増えているにもかかわらず、公正な機械学習と哲学、社会学、法学の社会科学との相互作用を説明する文学の欠如は依然として批判的である。
このフィールドガイドにおいて、社会的および形式的(特に機械学習と統計)科学の両方によって生み出される公正な機械学習の考えと議論を蓄積し、議論することで、この問題を解決したいと思っています。
具体的には,いくつかの統計的・因果的機械学習手法の数学的背景とアルゴリズム的背景に加えて,それらの基盤となる哲学的・法的思考について説明する。
さらに, 社会学的, 哲学的観点から, 公平な機械学習に対する現在のアプローチに対するいくつかの批判を考察する。
このフィールドガイドによって、公正な機械学習実践者が、アルゴリズムが重要なヒューマニズム的価値(公正性など)とどのように一致しているか、そしてフィールドとして、抑圧的で疎外された大衆に役立てるための設計方法やメトリクスをどのように理解できるようになることを願っています。
関連論文リスト
- A Catalog of Fairness-Aware Practices in Machine Learning Engineering [13.012624574172863]
機械学習は意思決定プロセスに広く採用されているため、公平性に対する懸念が高まる。
マシンラーニングライフサイクル全体を通じて、エンジニアリングフェアネスに関するプラクティスの理解と分類には、依然としてギャップがあります。
本稿では,体系的マッピング研究から得られた機械学習における公平性に対処するための新しいプラクティスカタログを提案する。
論文 参考訳(メタデータ) (2024-08-29T16:28:43Z) - A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - A Survey of Deep Learning for Mathematical Reasoning [71.88150173381153]
我々は過去10年間の数学的推論とディープラーニングの交差点における重要なタスク、データセット、方法についてレビューする。
大規模ニューラルネットワークモデルの最近の進歩は、新しいベンチマークと、数学的推論にディープラーニングを使用する機会を開放している。
論文 参考訳(メタデータ) (2022-12-20T18:46:16Z) - A Systematic Approach to Group Fairness in Automated Decision Making [0.0]
本論文の目的は,データ科学者に対して,グループフェアネス指標の紹介を提供することである。
我々は、公正な言明をするために、社会デマログラフィーグループをどの感覚で比較するかを考えることでこれを行おうとする。
論文 参考訳(メタデータ) (2021-09-09T12:47:15Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - The Use and Misuse of Counterfactuals in Ethical Machine Learning [2.28438857884398]
検討すべき事実が人種や性別などの社会的カテゴリーである場合に、反事実の使用にもっと注意を払っている。
機械学習の公正性と社会的説明可能性に対する反事実的アプローチは、社会的カテゴリとは何かという不合理な理論を必要とする可能性があると結論付けている。
論文 参考訳(メタデータ) (2021-02-09T19:28:41Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Knowledge as Invariance -- History and Perspectives of
Knowledge-augmented Machine Learning [69.99522650448213]
機械学習の研究は転換点にある。
研究の関心は、高度にパラメータ化されたモデルのパフォーマンス向上から、非常に具体的なタスクへとシフトしている。
このホワイトペーパーは、機械学習研究におけるこの新興分野の紹介と議論を提供する。
論文 参考訳(メタデータ) (2020-12-21T15:07:19Z) - Fairness in Machine Learning: A Survey [0.0]
偏見を緩和し、公平性を促進するアプローチに関する重要な文献がある。
本稿では、(社会的)バイアスを緩和し、機械学習文学における公正性を高めるための、さまざまな思考の流派とアプローチの概要について述べる。
プリプロセッシング、インプロセッシング、ポストプロセッシングといった広く受け入れられているフレームワークへのアプローチを組織化し、さらに11のメソッド領域に分類する。
論文 参考訳(メタデータ) (2020-10-04T21:01:34Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。