論文の概要: Algorithmic Fairness from a Non-ideal Perspective
- arxiv url: http://arxiv.org/abs/2001.09773v1
- Date: Wed, 8 Jan 2020 18:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 09:33:24.649778
- Title: Algorithmic Fairness from a Non-ideal Perspective
- Title(参考訳): 非理想的視点からのアルゴリズム的公正性
- Authors: Sina Fazelpour, Zachary C. Lipton
- Abstract要約: 提案する公正な機械学習アルゴリズムの欠点は、理想的なアプローチが直面するより広範な問題を反映している、と我々は主張する。
我々は、誤った解の害、不合理な結果の再解釈、今後の研究の方向性について批判的な議論を締めくくった。
- 参考スコア(独自算出の注目度): 26.13086713244309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by recent breakthroughs in predictive modeling, practitioners in
both industry and government have turned to machine learning with hopes of
operationalizing predictions to drive automated decisions. Unfortunately, many
social desiderata concerning consequential decisions, such as justice or
fairness, have no natural formulation within a purely predictive framework. In
efforts to mitigate these problems, researchers have proposed a variety of
metrics for quantifying deviations from various statistical parities that we
might expect to observe in a fair world and offered a variety of algorithms in
attempts to satisfy subsets of these parities or to trade off the degree to
which they are satisfied against utility. In this paper, we connect this
approach to \emph{fair machine learning} to the literature on ideal and
non-ideal methodological approaches in political philosophy. The ideal approach
requires positing the principles according to which a just world would operate.
In the most straightforward application of ideal theory, one supports a
proposed policy by arguing that it closes a discrepancy between the real and
the perfectly just world. However, by failing to account for the mechanisms by
which our non-ideal world arose, the responsibilities of various
decision-makers, and the impacts of proposed policies, naive applications of
ideal thinking can lead to misguided interventions. In this paper, we
demonstrate a connection between the fair machine learning literature and the
ideal approach in political philosophy, and argue that the increasingly
apparent shortcomings of proposed fair machine learning algorithms reflect
broader troubles faced by the ideal approach. We conclude with a critical
discussion of the harms of misguided solutions, a reinterpretation of
impossibility results, and directions for future research.
- Abstract(参考訳): 予測モデリングの最近のブレークスルーにインスパイアされた業界と政府の実践者は、自動決定を駆動する予測の運用を期待して、機械学習に移行した。
不幸なことに、正義や公正といった一連の決定に関する多くの社会的デシデラタは、純粋に予測的な枠組みの中で自然に定式化されていない。
これらの問題を緩和するために、研究者は様々な統計パリティから逸脱を定量化するための様々な指標を提案し、これらのパリティのサブセットを満たすために様々なアルゴリズムを提供し、あるいは有用性に対して満足できる程度をトレードオフさせようとした。
本稿では,このアプローチを政治哲学における理想的・非理想的方法論的アプローチに関する文献と結びつける。
理想的なアプローチは、正しい世界が機能する原則を提示することである。
理想論の最も素直な応用では、それが現実と完全に正しい世界との相違を閉じると主張することによって提案された政策を支持する。
しかし, 理想的でない世界が生じたメカニズム, 様々な意思決定者の責任, 提案された政策の影響を考慮できないことにより, 理想的思考の素早い適用は, 誤った介入につながる可能性がある。
本稿では、公正な機械学習文学と政治哲学における理想的アプローチとの関係を実証し、提案する公正な機械学習アルゴリズムの欠点が、理想的アプローチが直面する幅広い問題を反映していると論じる。
結論として,誤った解の有害性,不可能性の再解釈,今後の研究の方向性について批判的な議論を行った。
関連論文リスト
- Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - The Fairness Fair: Bringing Human Perception into Collective
Decision-Making [16.300744216179545]
我々は、公正な解決策は、社会プランナー(設計者)によって望ましいものとみなすだけでなく、人間と社会的認知によって統治されるべきであると主張している。
この目標を達成するには、コンピューティングやAIから行動経済学、人間とAIの相互作用まで幅広い学際的なアプローチが必要かについて議論する。
論文 参考訳(メタデータ) (2023-12-22T03:06:24Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fair Off-Policy Learning from Observational Data [30.77874108094485]
我々は、公正な政治学学習のための新しい枠組みを提案する。
まず、政治以外の学習における公平性の概念を定式化する。
次に、異なる公正概念の下で最適なポリシーを学習するためのニューラルネットワークベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-15T10:47:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Impact Remediation: Optimal Interventions to Reduce Inequality [10.806517393212491]
我々は、既存の現実世界の格差に対処するための新しいアルゴリズムフレームワークを開発する。
本フレームワークの目的は、現実世界の格差を計測し、最適な介入ポリシーを発見することである。
最適な政策学習に関するほとんどの研究とは対照的に、格差低減自体を目的として検討する。
論文 参考訳(メタデータ) (2021-07-01T16:35:12Z) - Understanding the origin of information-seeking exploration in
probabilistic objectives for control [62.997667081978825]
探索と探索のトレードオフは適応行動の記述の中心である。
このトレードオフを解決する1つのアプローチは、エージェントが固有の「探索駆動」を持っていることを装備または提案することであった。
汎用的最大化と情報参照行動の組み合わせは, 目的の全く異なる分類の最小化から生じることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:42:39Z) - Empirical observation of negligible fairness-accuracy trade-offs in
machine learning for public policy [13.037143215464132]
多くのアプリケーションにおける公平さと正確さのトレードオフは、実際には無視可能であることを示す。
その結果, 自己資本の達成と, 提案したポストホック格差緩和手法を用いて, 精度を犠牲にすることなく, 公平性を著しく向上したことがわかった。
論文 参考訳(メタデータ) (2020-12-05T08:10:47Z) - Forecasting: theory and practice [65.71277206849244]
本稿は、理論と予測の実践について、非体系的なレビューを提供する。
我々は、幅広い理論的、最先端のモデル、方法、原則、アプローチの概要を提供する。
そして、そのような理論概念が様々な実生活の文脈でどのように適用されるかを示す。
論文 参考訳(メタデータ) (2020-12-04T16:56:44Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。