論文の概要: Causal foundations of bias, disparity and fairness
- arxiv url: http://arxiv.org/abs/2207.13665v1
- Date: Wed, 27 Jul 2022 17:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 14:06:34.574472
- Title: Causal foundations of bias, disparity and fairness
- Title(参考訳): 偏見・格差・公平性の因果的基礎
- Authors: V.A. Traag, L. Waltman
- Abstract要約: 偏見を不当な直接的な因果効果として定義することを提案する。
また、偏差をバイアスを含む直接的または間接的な因果効果と定義する。
提案した定義は、偏見と格差の研究の因果的複雑さのより良い評価に寄与することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The study of biases, such as gender or racial biases, is an important topic
in the social and behavioural sciences. However, the concept of bias is not
always clearly defined in the literature. Definitions of bias are often
ambiguous, or definitions are not provided at all. To study biases in a precise
way, it is important to have a well-defined concept of bias. We propose to
define bias as a direct causal effect that is unjustified. We propose to define
the closely related concept of disparity as a direct or indirect causal effect
that includes a bias. Our proposed definitions can be used to study biases and
disparities in a more rigorous and systematic way. We compare our definitions
of bias and disparity with various definitions of fairness introduced in the
artificial intelligence literature. We also illustrate our definitions in two
case studies, focusing on gender bias in science and racial bias in police
shootings. Our proposed definitions aim to contribute to a better appreciation
of the causal intricacies of studies of biases and disparities. This will
hopefully also lead to an improved understanding of the policy implications of
such studies.
- Abstract(参考訳): 性別や人種的偏見などの偏見の研究は、社会科学や行動科学において重要なトピックである。
しかし、バイアスの概念は必ずしも文献で明確に定義されていない。
バイアスの定義はしばしば曖昧であり、定義は全く提供されない。
偏見を正確に研究するには、偏見の明確な概念を持つことが重要である。
バイアスを不正な直接的な因果効果として定義することを提案する。
偏差という概念をバイアスを含む直接的あるいは間接的な因果効果として定義することを提案する。
提案する定義は,より厳密で体系的な方法でバイアスや格差を研究するために利用できる。
バイアスと格差の定義を、人工知能文献に導入された公平性の定義と比較する。
また,我々の定義を2つのケーススタディで説明し,科学におけるジェンダーバイアスと警察銃撃における人種バイアスに着目した。
提案する定義は,バイアスや格差の研究の因果的複雑さをより良く理解することを目的としている。
これはまた、こうした研究の政策への影響に関する理解を深めることにつながると期待されている。
関連論文リスト
- Semantic Properties of cosine based bias scores for word embeddings [52.13994416317707]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - Dissecting Causal Biases [0.0]
本稿では,トレーニングデータの生成方法や収集方法に起因したバイアスのクラスに焦点を当てる。
バイアスの4つの源、すなわち、境界、選択、測定、相互作用が考慮されている。
論文 参考訳(メタデータ) (2023-10-20T09:12:10Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Differential Bias: On the Perceptibility of Stance Imbalance in
Argumentation [35.2494622378896]
絶対バイアス分類”が有望な目標かどうかを問う。
偏見のない文章と偏見のないテキストが主観的であるかどうかを判定する。
この種のバイアスモデルの前提条件は、人間がそもそも相対的なバイアスの差を知覚する能力である。
論文 参考訳(メタデータ) (2022-10-13T12:48:07Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - The SAME score: Improved cosine based bias score for word embeddings [63.24247894974291]
文献の考えに基づくバイアス定義を提供し、バイアススコアの新たな要件を導出する。
既存のバイアススコアの欠点に対処し,単語埋め込みにおけるバイアスの定量化に好適であることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Argument from Old Man's View: Assessing Social Bias in Argumentation [20.65183968971417]
言語における社会的バイアスは多くのNLPアプリケーションに倫理的影響をもたらす。
最近の研究では、各データに基づいてトレーニングされた機械学習モデルが採用されるだけでなく、バイアスを増幅する可能性があることが示されている。
大規模な英語討論ポータルにおける社会的偏見の存在について検討する。
論文 参考訳(メタデータ) (2020-11-24T10:39:44Z) - Robustness and Reliability of Gender Bias Assessment in Word Embeddings:
The Role of Base Pairs [23.574442657224008]
単語埋め込みはジェンダーバイアスを示すことが示されており、これを定量化するために様々な方法が提案されている。
これまでの研究では、男女の単語ペアを利用して偏見を測定し、偏見のある類似点を抽出してきた。
これらの性的なペアへの依存には、強い制限があることが示される。
特に、"man is to computer-grammer as woman is to homemaker"というよく知られたアナロジーは、社会的バイアスよりも言葉の類似性によるものである。
論文 参考訳(メタデータ) (2020-10-06T16:09:05Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z) - Mitigating Gender Bias Amplification in Distribution by Posterior
Regularization [75.3529537096899]
本稿では,男女差の増幅問題について,分布の観点から検討する。
後続正則化に基づくバイアス緩和手法を提案する。
私たちの研究はバイアス増幅の理解に光を当てている。
論文 参考訳(メタデータ) (2020-05-13T11:07:10Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。