論文の概要: The Use and Misuse of Counterfactuals in Ethical Machine Learning
- arxiv url: http://arxiv.org/abs/2102.05085v1
- Date: Tue, 9 Feb 2021 19:28:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 03:19:44.974751
- Title: The Use and Misuse of Counterfactuals in Ethical Machine Learning
- Title(参考訳): 倫理的機械学習における偽物の使用と誤用
- Authors: Atoosa Kasirzadeh, Andrew Smart
- Abstract要約: 検討すべき事実が人種や性別などの社会的カテゴリーである場合に、反事実の使用にもっと注意を払っている。
機械学習の公正性と社会的説明可能性に対する反事実的アプローチは、社会的カテゴリとは何かという不合理な理論を必要とする可能性があると結論付けている。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of counterfactuals for considerations of algorithmic fairness and
explainability is gaining prominence within the machine learning community and
industry. This paper argues for more caution with the use of counterfactuals
when the facts to be considered are social categories such as race or gender.
We review a broad body of papers from philosophy and social sciences on social
ontology and the semantics of counterfactuals, and we conclude that the
counterfactual approach in machine learning fairness and social explainability
can require an incoherent theory of what social categories are. Our findings
suggest that most often the social categories may not admit counterfactual
manipulation, and hence may not appropriately satisfy the demands for
evaluating the truth or falsity of counterfactuals. This is important because
the widespread use of counterfactuals in machine learning can lead to
misleading results when applied in high-stakes domains. Accordingly, we argue
that even though counterfactuals play an essential part in some causal
inferences, their use for questions of algorithmic fairness and social
explanations can create more problems than they resolve. Our positive result is
a set of tenets about using counterfactuals for fairness and explanations in
machine learning.
- Abstract(参考訳): アルゴリズムの公平性と説明可能性を考慮した偽物の利用は、機械学習コミュニティと業界で注目を集めている。
本稿では, 事実が人種やジェンダーなどの社会的カテゴリーである場合に, 反事実の使用に対してより注意を払っている。
我々は,社会オントロジーの哲学と社会科学の幅広い分野の論文をレビューし,機械学習の公正性と社会的説明可能性に対する反事実的アプローチは,社会カテゴリーとは何かという不合理な理論を必要とすると結論付けた。
以上より,ほとんどの社会カテゴリーは偽りの操作を認めず,偽りの真偽を評価する要求を適切に満たさない可能性が示唆された。
機械学習における偽物の利用が広まると、高レベルの領域で適用された結果が誤解を招く可能性があるため、これは重要である。
したがって,反事実は因果推論において不可欠な役割を担っているものの,アルゴリズム的公平性や社会的説明の疑問に対するそれらの使用は,解決するよりも多くの問題を生じさせる可能性がある。
私たちのポジティブな結果は、機械学習でフェアネスと説明に偽物を使うことに関するテネットのセットです。
関連論文リスト
- Longitudinal Counterfactuals: Constraints and Opportunities [59.11233767208572]
本稿では,反ファクトの妥当性を評価・改善するために,縦断データを用いた手法を提案する。
本研究では, 縦差と反実差を比較する指標を開発し, 先行観測した変化と反実差の類似性を評価する。
論文 参考訳(メタデータ) (2024-02-29T20:17:08Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Identifiability of Causal-based Fairness Notions: A State of the Art [4.157415305926584]
機械学習アルゴリズムは、偏見のある結果/予測を生成することができ、通常は少数派や少数民族に対するものである。
本論文は,機械学習の公正性に特に関係する主要な識別可能性の結果をまとめたものである。
論文 参考訳(メタデータ) (2022-03-11T13:10:32Z) - The Fairness Field Guide: Perspectives from Social and Formal Sciences [16.53498469585148]
公正な機械学習と哲学、社会学、法学との相互作用を説明する文献が欠如している。
我々はいくつかの統計学および因果関係に基づく公正な機械学習手法の数学的およびアルゴリズム的背景について述べる。
我々は、社会学的・哲学的な観点から、公正な機械学習への現在のアプローチに対する批判をいくつか探求する。
論文 参考訳(メタデータ) (2022-01-13T21:30:03Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Fairness in Machine Learning [15.934879442202785]
因果ベイズネットワークが,公平を理屈し対処するための重要な役割を果たすことを示す。
異なる設定や公平性基準に対処できる手法を含む統一されたフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-31T18:38:58Z) - Counterfactual Explanations for Machine Learning: A Review [5.908471365011942]
機械学習における対実的説明に関する研究をレビューし、分類する。
機械学習における対実的説明可能性に対する現代のアプローチは、多くの国で確立された法的教義と結びついている。
論文 参考訳(メタデータ) (2020-10-20T20:08:42Z) - Theory In, Theory Out: The uses of social theory in machine learning for
social science [3.180013942295509]
機械学習パイプラインの各段階で生じる基本的な方法論的および解釈的疑問に、社会理論がどのように答えられるかを示す。
本論文は,機械学習のツールをソーシャルデータに適用する際の現実的な疑問を,コンピュータや社会科学者のガイドとして扱うことができると考えている。
論文 参考訳(メタデータ) (2020-01-09T20:04:25Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。