論文の概要: Modeling Discrimination with Causal Abstraction
- arxiv url: http://arxiv.org/abs/2501.08429v1
- Date: Tue, 14 Jan 2025 20:42:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-16 15:53:35.803447
- Title: Modeling Discrimination with Causal Abstraction
- Title(参考訳): 因果的抽象化による識別のモデル化
- Authors: Milan Mossé, Kara Schechtman, Frederick Eberhardt, Thomas Icard,
- Abstract要約: 人は、彼女の人種が彼女のひどい治療を引き起こした場合にのみ、直接人種的に差別されます。
これは、人種がその因果的役割を分離するために他の属性と十分に分離できることを意味している。
しかし、人種は孤立した治療に抵抗する社会的要因のネクサスに埋め込まれている。
- 参考スコア(独自算出の注目度): 4.9277400520479455
- License:
- Abstract: A person is directly racially discriminated against only if her race caused her worse treatment. This implies that race is an attribute sufficiently separable from other attributes to isolate its causal role. But race is embedded in a nexus of social factors that resist isolated treatment. If race is socially constructed, in what sense can it cause worse treatment? Some propose that the perception of race, rather than race itself, causes worse treatment. Others suggest that since causal models require modularity, i.e. the ability to isolate causal effects, attempts to causally model discrimination are misguided. This paper addresses the problem differently. We introduce a framework for reasoning about discrimination, in which race is a high-level abstraction of lower-level features. In this framework, race can be modeled as itself causing worse treatment. Modularity is ensured by allowing assumptions about social construction to be precisely and explicitly stated, via an alignment between race and its constituents. Such assumptions can then be subjected to normative and empirical challenges, which lead to different views of when discrimination occurs. By distinguishing constitutive and causal relations, the abstraction framework pinpoints disagreements in the current literature on modeling discrimination, while preserving a precise causal account of discrimination.
- Abstract(参考訳): 人は、彼女の人種が彼女のひどい治療を引き起こした場合にのみ、直接人種的に差別されます。
これは、レースがその因果的役割を分離するために他の属性と十分に分離可能な属性であることを意味する。
しかし、人種は孤立した治療に抵抗する社会的要因のネクサスに埋め込まれている。
人種が社会的に構築されている場合、それはどのようにして治療を悪化させるのか?
人種自体よりも人種に対する認識が、よりひどい治療を引き起こすという意見もある。
因果的モデルにはモジュラリティ、すなわち因果的効果を分離する能力が必要であるため、因果的識別を因果的にモデル化しようとする試みは誤解されている、という意見もある。
本論文はその問題を異なる方法で解決する。
我々は、人種が低レベルの機能の高レベルな抽象化である、差別に関する推論のためのフレームワークを導入する。
このフレームワークでは、レースはそれ自体がよりひどい治療を引き起こすものとしてモデル化できる。
モジュラリティは、人種とその構成員の整合性を通じて、社会的構成に関する仮定を正確かつ明示的に記述することによって保証される。
このような仮定は規範的かつ経験的な課題に直面することができ、それが差別が起こる際の異なる見解につながる。
構成的関係と因果関係を区別することにより、抽象的枠組みは、識別の正確な因果関係を保ちながら、モデリング差別に関する現在の文献で不一致を指摘する。
関連論文リスト
- The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Racial/Ethnic Categories in AI and Algorithmic Fairness: Why They Matter and What They Represent [0.0]
我々は、不明確な仮定とほとんど正当化されていない人種的カテゴリーが、どのようにしてグループを粗末に表現する様々なデータセットをもたらすかを示す。
また、人種カテゴリーの選択における選択と仮定、およびこれらのカテゴリーへの人種化の過程を文書化するためのフレームワークであるCIRCSheetsも開発している。
論文 参考訳(メタデータ) (2024-04-10T04:04:05Z) - A New Paradigm for Counterfactual Reasoning in Fairness and Recourse [12.119272303766056]
この文献における対実的推論の伝統的なパラダイムは、介入的対実的である。
このパラダイムの本質的な制限は、一部の人口統計学的介入が、介入的反事実の形式主義に変換されないことである。
そこで本研究では,バックトラック対策に基づく新たなパラダイムについて検討する。
論文 参考訳(メタデータ) (2024-01-25T04:28:39Z) - An Empirical Analysis of Racial Categories in the Algorithmic Fairness
Literature [2.2713084727838115]
アルゴリズムフェアネスフレームワークにおいて、レースがどのように概念化され、形式化されるかを分析する。
人種の異なる概念は、時には1つの分析の範囲内でも、矛盾なく採用されていることが分かっています。
人種的カテゴリーの構築は、社会的、政治的に重要な結果をもたらす価値の高いプロセスである、と我々は主張する。
論文 参考訳(メタデータ) (2023-09-12T21:23:29Z) - Revealing Unfair Models by Mining Interpretable Evidence [50.48264727620845]
機械学習の人気は、不公平なモデルがハイリスクなアプリケーションにデプロイされるリスクを高めている。
本稿では,解釈可能な証拠をマイニングすることで不公平なモデルを明らかにする新しい課題に取り組む。
本手法は,訓練されたモデルの不公平性を効果的に明らかにするために,極めて解釈可能な確固たる証拠を見出す。
論文 参考訳(メタデータ) (2022-07-12T20:03:08Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - fairadapt: Causal Reasoning for Fair Data Pre-processing [2.1915057426589746]
因果推論前処理方式を実装したR-package fairadaptについて記述する。
結果に対する感度特性から特定の因果経路が識別できないと仮定する適切な緩和について論じる。
論文 参考訳(メタデータ) (2021-10-19T18:48:28Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - What's Sex Got To Do With Fair Machine Learning? [0.0]
フェアネス」に対する多くのアプローチでは、データ生成プロセスの因果モデルを指定する必要がある、と我々は主張する。
因果モデルにおけるモジュラリティの形式的な仮定を探求することによって、これを実証する。
我々は、この存在論的なイメージは誤りであると主張する。セックスが「原因」であるとされる「影響」の多くは、実際には、社会的地位としての性の特徴である。
論文 参考訳(メタデータ) (2020-06-02T16:51:39Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。