論文の概要: A Novel Method for Analysing Racial Bias: Collection of Person Level
References
- arxiv url: http://arxiv.org/abs/2310.15847v1
- Date: Tue, 24 Oct 2023 14:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 18:28:29.012170
- Title: A Novel Method for Analysing Racial Bias: Collection of Person Level
References
- Title(参考訳): 人種バイアス分析のための新しい方法:個人レベルの参照の収集
- Authors: Muhammed Yusuf Kocyigit, Anietie Andy, Derry Wijaya
- Abstract要約: 本稿では,2つのグループ間の表現の差異を分析する新しい手法を提案する。
我々は1850年から2000年にかけての書籍におけるアフリカ系アメリカ人と白人の表現を、Google Booksデータセットを用いて検討した。
- 参考スコア(独自算出の注目度): 6.345851712811529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long term exposure to biased content in literature or media can significantly
influence people's perceptions of reality, leading to the development of
implicit biases that are difficult to detect and address (Gerbner 1998). In
this study, we propose a novel method to analyze the differences in
representation between two groups and use it examine the representation of
African Americans and White Americans in books between 1850 to 2000 with the
Google Books dataset (Goldberg and Orwant 2013). By developing better tools to
understand differences in representation, we aim to contribute to the ongoing
efforts to recognize and mitigate biases. To improve upon the more common
phrase based (men, women, white, black, etc) methods to differentiate context
(Tripodi et al. 2019, Lucy; Tadimeti, and Bamman 2022), we propose collecting a
comprehensive list of historically significant figures and using their names to
select relevant context. This novel approach offers a more accurate and nuanced
method for detecting implicit biases through reducing the risk of selection
bias. We create group representations for each decade and analyze them in an
aligned semantic space (Hamilton, Leskovec, and Jurafsky 2016). We further
support our results by assessing the time adjusted toxicity (Bassignana,
Basile, and Patti 2018) in the context for each group and identifying the
semantic axes (Lucy, Tadimeti, and Bamman 2022) that exhibit the most
significant differences between the groups across decades. We support our
method by showing that our proposed method can capture known socio political
changes accurately and our findings indicate that while the relative number of
African American names mentioned in books have increased over time, the context
surrounding them remains more toxic than white Americans.
- Abstract(参考訳): 文学やメディアにおけるバイアス付きコンテンツへの長期的露出は、人々の現実に対する認識に大きな影響を与え、検出と対処が難しい暗黙のバイアスの発生につながる(Gerbner 1998)。
本研究では,2つのグループ間の表現の違いを分析し,google booksデータセット(goldberg and orwant 2013)を用いて1850年から2000年にかけての書物におけるアフリカ系アメリカ人と白人の表現について検討する手法を提案する。
表現の違いを理解するためのより良いツールを開発することで、バイアスを認識し緩和するための継続的な努力に貢献することを目指している。
より一般的な語句(男性、女性、白人、黒人など)に基づいて文脈を区別する手法(Tripodi et al. 2019, Lucy, Tadimeti, Bamman 2022)を改善するため、歴史的に重要な人物の包括的リストを収集し、それらの名前を用いて関連文脈を選択することを提案する。
この手法は、選択バイアスのリスクを低減し、暗黙のバイアスを検出するためのより正確でニュアンスな方法を提供する。
我々は10年ごとにグループ表現を作成し、それらを整列した意味空間で解析する(Hamilton, Leskovec, Jurafsky 2016)。
我々は、各グループの文脈において、時間調整された毒性(Bassignana, Basile, Patti 2018)を評価し、数十年にわたるグループ間の最も顕著な違いを示す意味軸(Lucy, Tadimeti, Bamman 2022)を特定し、その結果をさらに支援する。
我々は,提案手法が社会的変化を正確に把握できることを示し,本書に記載されているアフリカ系アメリカ人の相対的な数が増えつつも,それらを取り巻く文脈は,白人よりも有毒であることを示す。
関連論文リスト
- A Longitudinal Analysis of Racial and Gender Bias in New York Times and Fox News Images and Articles [2.482116411483087]
New York Times(NYT)とFox News(Fox)の123,337枚の画像と441,321個のオンラインニュース記事のデータセットを使用します。
ニュース記事に埋め込まれた画像における人種・性別集団の出現頻度と優位性について検討する。
NYTはFoxに比べて、人種的少数派のイメージが圧倒的に多いことがわかりました。
論文 参考訳(メタデータ) (2024-10-29T09:42:54Z) - On the Influence of Gender and Race in Romantic Relationship Prediction from Large Language Models [21.178861746240507]
本研究では,大規模な言語モデルにおける人種間恋愛関係に対するヘテロノルミティブな偏見と偏見の存在について検討する。
モデルでは,(a)同性字対と(b)異性字対,および(b)アジア名を含む人種内・人種内文字対のロマンチックな関係をブラック,ヒスパニック,ホワイト名と比較すると予測しにくいことを示す。
論文 参考訳(メタデータ) (2024-10-05T01:41:55Z) - The Factuality Tax of Diversity-Intervened Text-to-Image Generation: Benchmark and Fact-Augmented Intervention [61.80236015147771]
我々は多様性の介入とT2Iモデルにおける人口統計学的事実性とのトレードオフを定量化する。
DoFaiRの実験では、多様性指向の指示によって、性別や人種の異なる集団の数が増加することが明らかになった。
本研究では,歴史における世代ごとのジェンダーや人種構成について,言語化された事実情報を反映したFact-Augmented Intervention (FAI)を提案する。
論文 参考訳(メタデータ) (2024-06-29T09:09:42Z) - Leveraging Prototypical Representations for Mitigating Social Bias without Demographic Information [50.29934517930506]
DAFairは、言語モデルにおける社会的バイアスに対処する新しいアプローチである。
偏見を緩和するために、原型的人口統計テキストを活用し、微調整プロセス中に正規化用語を取り入れる。
論文 参考訳(メタデータ) (2024-03-14T15:58:36Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Counter-GAP: Counterfactual Bias Evaluation through Gendered Ambiguous
Pronouns [53.62845317039185]
バイアス測定データセットは、言語モデルのバイアスされた振る舞いを検出する上で重要な役割を果たす。
本稿では, 多様な, 自然な, 最小限のテキストペアを, 対物生成によって収集する新しい手法を提案する。
事前学習された4つの言語モデルは、各グループ内よりも、異なる性別グループ間でかなり不整合であることを示す。
論文 参考訳(メタデータ) (2023-02-11T12:11:03Z) - Computational Assessment of Hyperpartisanship in News Titles [55.92100606666497]
われわれはまず、超党派ニュースタイトル検出のための新しいデータセットを開発するために、人間の誘導する機械学習フレームワークを採用する。
全体的に右派メディアは比例的に超党派的なタイトルを使う傾向にある。
我々は、外国問題、政治システム、ニュースタイトルにおける過党主義を示唆する社会問題を含む3つの主要なトピックを識別する。
論文 参考訳(メタデータ) (2023-01-16T05:56:58Z) - Mitigating Racial Biases in Toxic Language Detection with an
Equity-Based Ensemble Framework [9.84413545378636]
最近の研究では、アフリカ系アメリカ人の英語を書いているユーザーに対する人種的偏見が、人気のある有毒な言語データセットに存在することが示されている。
これらのバイアスの発生源をよりよく理解するために、さらに説明的公正度指標を提案する。
提案手法は,モデルがこれらのデータセットから学習する人種的バイアスを大幅に低減することを示す。
論文 参考訳(メタデータ) (2021-09-27T15:54:05Z) - Avoiding bias when inferring race using name-based approaches [0.8543368663496084]
我々は、米国国勢調査および住宅ローン申請の情報を用いて、米国関連作家のウェブ・オブ・サイエンスにおける人種を推測する。
その結果、人種・民族によって名前に基づく推論の妥当性が異なり、しきい値が黒人作家を過小評価し、白人作家を過小評価することを示した。
論文 参考訳(メタデータ) (2021-04-14T08:36:22Z) - Multilingual Contextual Affective Analysis of LGBT People Portrayals in
Wikipedia [34.183132688084534]
物語文における特定の語彙選択は、物語の中の人々に対する作家の態度を反映し、聴衆の反応に影響を与える。
言語や文化によって単語の意味がどう異なるかを示し、既存の英語データセットを一般化することの難しさを浮き彫りにしている。
次に、LGBTコミュニティのメンバーのウィキペディアの伝記ページを3つの言語で分析することで、本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-10-21T08:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。