論文の概要: On the Influence of Gender and Race in Romantic Relationship Prediction from Large Language Models
- arxiv url: http://arxiv.org/abs/2410.03996v1
- Date: Sat, 5 Oct 2024 01:41:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 14:50:11.560928
- Title: On the Influence of Gender and Race in Romantic Relationship Prediction from Large Language Models
- Title(参考訳): 大規模言語モデルを用いたロマンティック関係予測におけるジェンダーと人種の影響について
- Authors: Abhilasha Sancheti, Haozhe An, Rachel Rudinger,
- Abstract要約: 本研究では,大規模な言語モデルにおける人種間恋愛関係に対するヘテロノルミティブな偏見と偏見の存在について検討する。
モデルでは,(a)同性字対と(b)異性字対,および(b)アジア名を含む人種内・人種内文字対のロマンチックな関係をブラック,ヒスパニック,ホワイト名と比較すると予測しにくいことを示す。
- 参考スコア(独自算出の注目度): 21.178861746240507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the presence of heteronormative biases and prejudice against interracial romantic relationships in large language models by performing controlled name-replacement experiments for the task of relationship prediction. We show that models are less likely to predict romantic relationships for (a) same-gender character pairs than different-gender pairs; and (b) intra/inter-racial character pairs involving Asian names as compared to Black, Hispanic, or White names. We examine the contextualized embeddings of first names and find that gender for Asian names is less discernible than non-Asian names. We discuss the social implications of our findings, underlining the need to prioritize the development of inclusive and equitable technology.
- Abstract(参考訳): 本研究では,大言語モデルにおける異義性バイアスと偏見の存在を,関係予測の課題に対する制御された名前置換実験により検討する。
私たちはモデルがロマンチックな関係を予測しにくいことを示しています。
(a)異性字対より同性字対、及び
(b)黒・ヒスパニック・白名と比較してアジア名を含む人種内・人種間文字ペア。
ファーストネームの文脈的埋め込みについて検討し、アジア名の性別がアジア以外の名前よりも識別しにくいことを見出した。
本研究は, 包括的かつ公平な技術開発を優先する必要性について考察する。
関連論文リスト
- Gender Bias in Decision-Making with Large Language Models: A Study of Relationship Conflicts [15.676219253088211]
大規模言語モデル(LLM)におけるジェンダーエクイティを意思決定レンズを用いて検討する。
我々は3つの名前リスト(男性、女性、中立)にまたがる名前ペアを通して9つの関係構成を探索する。
論文 参考訳(メタデータ) (2024-10-14T20:50:11Z) - Uncovering Name-Based Biases in Large Language Models Through Simulated Trust Game [0.0]
個人の名前から推測される性や人種は、社会的相互作用に微妙に影響を及ぼすステレオタイプやバイアスの顕著な源泉である。
提案手法は,ベースモデルと命令調整モデルの両方において,名前に基づくバイアスを検出する。
論文 参考訳(メタデータ) (2024-04-23T02:21:17Z) - What's in a Name? Auditing Large Language Models for Race and Gender
Bias [49.28899492966893]
我々は、GPT-4を含む最先端の大規模言語モデルのバイアスを調査するために監査設計を採用する。
このアドバイスは、一般的に人種的マイノリティや女性に結びついている名前に系統的に不利であることがわかった。
論文 参考訳(メタデータ) (2024-02-21T18:25:25Z) - The Causal Influence of Grammatical Gender on Distributional Semantics [87.8027818528463]
言語間のジェンダー割り当てがどの程度意味を持つかは、言語学と認知科学における研究の活発な領域である。
我々は、名詞の文法的性別、意味、形容詞選択の間の相互作用を共同で表現する、新しい因果的グラフィカルモデルを提供する。
名詞の意味を制御した場合、文法的性別と形容詞的選択の関係は、ほぼゼロであり、無意味である。
論文 参考訳(メタデータ) (2023-11-30T13:58:13Z) - Gendec: A Machine Learning-based Framework for Gender Detection from
Japanese Names [0.0]
本研究は,ロマジ,ヒラガナ,漢字の64,139名のフルネームと,その生物学的性別を併用した日本語名の性別検出のための新しいデータセットを提示する。
我々は,従来の機械学習技術や最先端の移動学習モデルなど,多様なアプローチを利用する日本語名から性別検出を行うフレームワークであるGendecを提案する。
論文 参考訳(メタデータ) (2023-11-18T07:46:59Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - Comparing Biases and the Impact of Multilingual Training across Multiple
Languages [70.84047257764405]
ダウンストリーム感情分析タスクにおいて,イタリア語,中国語,英語,ヘブライ語,スペイン語のバイアス分析を行う。
我々は、既存の感情バイアスのテンプレートを、人種、宗教、国籍、性別の4つの属性で、イタリア語、中国語、ヘブライ語、スペイン語に適応させる。
以上の結果から,各言語の文化に支配的な集団の嗜好など,バイアス表現の類似性を明らかにした。
論文 参考訳(メタデータ) (2023-05-18T18:15:07Z) - For the Underrepresented in Gender Bias Research: Chinese Name Gender
Prediction with Heterogeneous Graph Attention Network [1.13608321568471]
コンポーネント関係における不均一性を捉え,文字の発音を組み込むために,中国異種グラフ注意(CHGAT)モデルを設計する。
我々のモデルは現在のツールをはるかに上回り、最先端のアルゴリズムよりも優れています。
私たちは、よりバランスのとれた複数文字のデータセットを、公式のソースから、私たちのコードとともにオープンソース化しました。
論文 参考訳(メタデータ) (2023-02-01T13:08:50Z) - Hi, my name is Martha: Using names to measure and mitigate bias in
generative dialogue models [14.624075519580405]
不均衡な性別と人種/民族の参照を含む実際の人間の会話で訓練されることは、学習されたバイアスを表示するモデルにつながる可能性がある。
本研究では,これらの対話モデル,特に名前のスクランブル,制御された生成,および不規則な訓練をチューニングする方法が,会話のバイアスを軽減するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-07T19:20:24Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - How True is GPT-2? An Empirical Analysis of Intersectional Occupational
Biases [50.591267188664666]
下流のアプリケーションは、自然言語モデルに含まれるバイアスを継承するリスクがある。
一般的な生成言語モデルであるGPT-2の作業バイアスを分析した。
特定の仕事について、GPT-2は米国におけるジェンダーと民族の社会的偏見を反映しており、場合によってはジェンダー・パリティの傾向を反映している。
論文 参考訳(メタデータ) (2021-02-08T11:10:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。