論文の概要: Causal foundations of bias, disparity and fairness
- arxiv url: http://arxiv.org/abs/2207.13665v1
- Date: Wed, 27 Jul 2022 17:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 14:06:34.574472
- Title: Causal foundations of bias, disparity and fairness
- Title(参考訳): 偏見・格差・公平性の因果的基礎
- Authors: V.A. Traag, L. Waltman
- Abstract要約: 偏見を不当な直接的な因果効果として定義することを提案する。
また、偏差をバイアスを含む直接的または間接的な因果効果と定義する。
提案した定義は、偏見と格差の研究の因果的複雑さのより良い評価に寄与することを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The study of biases, such as gender or racial biases, is an important topic
in the social and behavioural sciences. However, the concept of bias is not
always clearly defined in the literature. Definitions of bias are often
ambiguous, or definitions are not provided at all. To study biases in a precise
way, it is important to have a well-defined concept of bias. We propose to
define bias as a direct causal effect that is unjustified. We propose to define
the closely related concept of disparity as a direct or indirect causal effect
that includes a bias. Our proposed definitions can be used to study biases and
disparities in a more rigorous and systematic way. We compare our definitions
of bias and disparity with various definitions of fairness introduced in the
artificial intelligence literature. We also illustrate our definitions in two
case studies, focusing on gender bias in science and racial bias in police
shootings. Our proposed definitions aim to contribute to a better appreciation
of the causal intricacies of studies of biases and disparities. This will
hopefully also lead to an improved understanding of the policy implications of
such studies.
- Abstract(参考訳): 性別や人種的偏見などの偏見の研究は、社会科学や行動科学において重要なトピックである。
しかし、バイアスの概念は必ずしも文献で明確に定義されていない。
バイアスの定義はしばしば曖昧であり、定義は全く提供されない。
偏見を正確に研究するには、偏見の明確な概念を持つことが重要である。
バイアスを不正な直接的な因果効果として定義することを提案する。
偏差という概念をバイアスを含む直接的あるいは間接的な因果効果として定義することを提案する。
提案する定義は,より厳密で体系的な方法でバイアスや格差を研究するために利用できる。
バイアスと格差の定義を、人工知能文献に導入された公平性の定義と比較する。
また,我々の定義を2つのケーススタディで説明し,科学におけるジェンダーバイアスと警察銃撃における人種バイアスに着目した。
提案する定義は,バイアスや格差の研究の因果的複雑さをより良く理解することを目的としている。
これはまた、こうした研究の政策への影響に関する理解を深めることにつながると期待されている。
関連論文リスト
- Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - Is There a One-Model-Fits-All Approach to Information Extraction? Revisiting Task Definition Biases [62.806300074459116]
定義バイアスは、モデルを誤解させる可能性のある負の現象である。
IEでは、情報抽出データセット間のバイアスと、情報抽出データセットとインストラクションチューニングデータセット間のバイアスの2つの定義バイアスを識別する。
本稿では, 定義バイアス測定, バイアス対応微調整, タスク固有バイアス緩和からなる多段階フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-25T03:19:20Z) - Semantic Properties of cosine based bias scores for word embeddings [48.0753688775574]
本稿では,バイアスの定量化に有効なバイアススコアの要件を提案する。
これらの要件について,コサインに基づくスコアを文献から分析する。
これらの結果は、バイアススコアの制限がアプリケーションケースに影響を及ぼすことを示す実験で裏付けられている。
論文 参考訳(メタデータ) (2024-01-27T20:31:10Z) - Dissecting Causal Biases [0.0]
本稿では,トレーニングデータの生成方法や収集方法に起因したバイアスのクラスに焦点を当てる。
バイアスの4つの源、すなわち、境界、選択、測定、相互作用が考慮されている。
論文 参考訳(メタデータ) (2023-10-20T09:12:10Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Differential Bias: On the Perceptibility of Stance Imbalance in
Argumentation [35.2494622378896]
絶対バイアス分類”が有望な目標かどうかを問う。
偏見のない文章と偏見のないテキストが主観的であるかどうかを判定する。
この種のバイアスモデルの前提条件は、人間がそもそも相対的なバイアスの差を知覚する能力である。
論文 参考訳(メタデータ) (2022-10-13T12:48:07Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Robustness and Reliability of Gender Bias Assessment in Word Embeddings:
The Role of Base Pairs [23.574442657224008]
単語埋め込みはジェンダーバイアスを示すことが示されており、これを定量化するために様々な方法が提案されている。
これまでの研究では、男女の単語ペアを利用して偏見を測定し、偏見のある類似点を抽出してきた。
これらの性的なペアへの依存には、強い制限があることが示される。
特に、"man is to computer-grammer as woman is to homemaker"というよく知られたアナロジーは、社会的バイアスよりも言葉の類似性によるものである。
論文 参考訳(メタデータ) (2020-10-06T16:09:05Z) - Towards Debiasing Sentence Representations [109.70181221796469]
Sent-Debiasはバイアスを取り除くのに有効であり、同時に文レベルの下流タスクのパフォーマンスを保っていることを示す。
我々は、より公平なNLPのための広く採用されている文表現から社会的偏見を識別・除去する今後の研究に刺激を与えることを期待している。
論文 参考訳(メタデータ) (2020-07-16T04:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。