論文の概要: What's Sex Got To Do With Fair Machine Learning?
- arxiv url: http://arxiv.org/abs/2006.01770v2
- Date: Thu, 4 Jun 2020 22:54:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 23:44:07.011987
- Title: What's Sex Got To Do With Fair Machine Learning?
- Title(参考訳): 公正な機械学習でセックスは何をすべきか?
- Authors: Lily Hu and Issa Kohler-Hausmann
- Abstract要約: フェアネス」に対する多くのアプローチでは、データ生成プロセスの因果モデルを指定する必要がある、と我々は主張する。
因果モデルにおけるモジュラリティの形式的な仮定を探求することによって、これを実証する。
我々は、この存在論的なイメージは誤りであると主張する。セックスが「原因」であるとされる「影響」の多くは、実際には、社会的地位としての性の特徴である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Debate about fairness in machine learning has largely centered around
competing definitions of what fairness or nondiscrimination between groups
requires. However, little attention has been paid to what precisely a group is.
Many recent approaches to "fairness" require one to specify a causal model of
the data generating process. These exercises make an implicit ontological
assumption that a racial or sex group is simply a collection of individuals who
share a given trait. We show this by exploring the formal assumption of
modularity in causal models, which holds that the dependencies captured by one
causal pathway are invariant to interventions on any other pathways. Causal
models of sex propose two substantive claims: 1) There exists a feature,
sex-on-its-own, that is an inherent trait of an individual that causally brings
about social phenomena external to it in the world; and 2) the relations
between sex and its effects can be modified in whichever ways and the former
feature would still retain the meaning that sex has in our world. We argue that
this ontological picture is false. Many of the "effects" that sex purportedly
"causes" are in fact constitutive features of sex as a social status. They give
the social meaning of sex features, meanings that are precisely what make sex
discrimination a distinctively morally problematic type of action. Correcting
this conceptual error has a number of implications for how models can be used
to detect discrimination. Formal diagrams of constitutive relations present an
entirely different path toward reasoning about discrimination. Whereas causal
diagrams guide the construction of sophisticated modular counterfactuals,
constitutive diagrams identify a different kind of counterfactual as central to
an inquiry on discrimination: one that asks how the social meaning of a group
would be changed if its non-modular features were altered.
- Abstract(参考訳): 機械学習における公平性に関する議論は、主に集団間の公平性や非差別性が必要とするものを定義することに集中している。
しかし、グループが正確に何であるかにはほとんど注意が払われていない。
フェーネス」に対する最近の多くのアプローチでは、データ生成プロセスの因果モデルを指定する必要がある。
これらのエクササイズは、人種または性集団が単に特定の特性を共有する個人の集合であるという暗黙のオントロジ的仮定を与える。
因果モデルにおけるモジュラリティの形式的仮定を探求し、ある因果経路によって捕獲される依存関係が他の経路の介入に不変であることを示す。
セックスの因果モデルは2つの実体的主張を提案する。
1)世界に社会現象を因果的に引き起こす個人固有の特徴である性同一性(ex-on-in-own)が存在する。
2) 性別と効果の関係はどんな方法でも変更可能であり, 前者の特徴は, セックスが世界において有する意味を保っている。
この存在論図は誤りであると主張する。
セックスが「原因」であるとされる「影響」の多くは、実際には社会的地位としての性の構成的特徴である。
性的な特徴の社会的意味、すなわち性差別を道徳的に問題のある行動にすることの正確な意味を与える。
この概念的エラーの修正は、モデルを差別の検出に利用する上で、多くの意味を持つ。
構成関係の形式図は、差別について推論する全く異なる経路を示す。
因果ダイアグラムが洗練されたモジュラー反ファクトの構築を導くのに対し、構成的ダイアグラムは異なる種類の反ファクトを差別に関する調査の中心として特定する。
関連論文リスト
- Distributional Semantics, Holism, and the Instability of Meaning [0.0]
ホリズムの意味に対する標準的な反対は不安定さの代償である。
本稿では,不安定性が意味の分布モデルに問題をもたらすかどうかを考察する。
論文 参考訳(メタデータ) (2024-05-20T14:53:25Z) - The Causal Influence of Grammatical Gender on Distributional Semantics [87.8027818528463]
言語間のジェンダー割り当てがどの程度意味を持つかは、言語学と認知科学における研究の活発な領域である。
我々は、名詞の文法的性別、意味、形容詞選択の間の相互作用を共同で表現する、新しい因果的グラフィカルモデルを提供する。
名詞の意味を制御した場合、文法的性別と形容詞的選択の関係は、ほぼゼロであり、無意味である。
論文 参考訳(メタデータ) (2023-11-30T13:58:13Z) - Fairness in AI Systems: Mitigating gender bias from language-vision
models [0.913755431537592]
既存のデータセットにおける性別バイアスの影響について検討する。
本稿では,キャプションに基づく言語視覚モデルにおけるその影響を緩和する手法を提案する。
論文 参考訳(メタデータ) (2023-05-03T04:33:44Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - fairadapt: Causal Reasoning for Fair Data Pre-processing [2.1915057426589746]
因果推論前処理方式を実装したR-package fairadaptについて記述する。
結果に対する感度特性から特定の因果経路が識別できないと仮定する適切な緩和について論じる。
論文 参考訳(メタデータ) (2021-10-19T18:48:28Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z) - Can gender inequality be created without inter-group discrimination? [0.0]
単純なエージェントベースの動的プロセスが男女不平等を生じさせるかどうかを検証した。
我々は、ランダムに選択されたエージェントのペアで相互作用する集団をシミュレートし、自己および他者の評価判断に影響を及ぼす。
偏見, ステレオタイプ, 分離, 分類がなければ, 本モデルは, ガラス天井効果の安定性, 調和性, 特性を示す自己評価と状態の群間不平等を生じさせる。
論文 参考訳(メタデータ) (2020-05-05T07:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。