論文の概要: Who Gets Cited? Gender- and Majority-Bias in LLM-Driven Reference Selection
- arxiv url: http://arxiv.org/abs/2508.02740v1
- Date: Sat, 02 Aug 2025 13:27:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.598438
- Title: Who Gets Cited? Gender- and Majority-Bias in LLM-Driven Reference Selection
- Title(参考訳): LLM駆動参照選択におけるジェンダーバイアスとマジョリティバイアス
- Authors: Jiangen He,
- Abstract要約: 本研究では,大規模言語モデル(LLM)における性別バイアスを系統的に研究する。
以上の結果から,男性による基準に対する永続的嗜好と,候補プールにおいてどの性別が一般的であるかを優先する多数派偏見の2つの形態が明らかとなった。
以上の結果から, LLMは学術的認識において, 既存の男女不均衡を補強・悪化させることができることが示唆された。
- 参考スコア(独自算出の注目度): 0.16317061277456998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are rapidly being adopted as research assistants, particularly for literature review and reference recommendation, yet little is known about whether they introduce demographic bias into citation workflows. This study systematically investigates gender bias in LLM-driven reference selection using controlled experiments with pseudonymous author names. We evaluate several LLMs (GPT-4o, GPT-4o-mini, Claude Sonnet, and Claude Haiku) by varying gender composition within candidate reference pools and analyzing selection patterns across fields. Our results reveal two forms of bias: a persistent preference for male-authored references and a majority-group bias that favors whichever gender is more prevalent in the candidate pool. These biases are amplified in larger candidate pools and only modestly attenuated by prompt-based mitigation strategies. Field-level analysis indicates that bias magnitude varies across scientific domains, with social sciences showing the least bias. Our findings indicate that LLMs can reinforce or exacerbate existing gender imbalances in scholarly recognition. Effective mitigation strategies are needed to avoid perpetuating existing gender disparities in scientific citation practices before integrating LLMs into high-stakes academic workflows.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特に文献レビューや参照レコメンデーションのために研究アシスタントとして急速に採用されているが、引用ワークフローに人口統計バイアスを導入するかどうかについては分かっていない。
本研究では, LLMによる基準選択における性別バイアスを, 匿名著者名を用いた制御実験を用いて体系的に検討した。
我々は,複数のLDM(GPT-4o,GPT-4o-mini,Claude Sonnet,Claude Haiku)を,候補参照プール内の性別構成の変化により評価し,フィールド間の選択パターンを解析した。
以上の結果から,男性による基準に対する永続的嗜好と,候補プールにおいてどの性別が一般的であるかを優先する多数派偏見の2つの形態が明らかとなった。
これらのバイアスは、より大きな候補プールで増幅され、急進的な緩和戦略によってわずかに減衰される。
フィールドレベルの分析では、バイアスの規模は科学分野によって異なり、社会科学ではバイアスが最も少ないことが示されている。
以上の結果から, LLMは学術的認識において, 既存の男女不均衡を補強し, 悪化させる可能性が示唆された。
LLMを高度な学術的ワークフローに組み込む前に、科学的引用の実践において、既存の男女格差が持続するのを避けるために効果的な緩和戦略が必要である。
関連論文リスト
- Do LLMs have a Gender (Entropy) Bias? [3.2225437367979763]
我々は,LLMが生み出す情報の量と,ユーザが質問した実際の質問に対する相違点として,エントロピーバイアスを定義し,研究する。
分析の結果,男女のLDM反応に有意な偏りは認められなかったことが示唆された。
2つの性別の反応を反復的にマージして最終的な結果を得る単純な偏りのアプローチを提案する。
論文 参考訳(メタデータ) (2025-05-24T23:06:41Z) - LFTF: Locating First and Then Fine-Tuning for Mitigating Gender Bias in Large Language Models [13.40656836132881]
我々はGenBiasEvalとGenHintEvalというデータセットを提案する。
GenBiasEvalは、LDMにおける性別バイアスの程度を評価する責任がある。
GenHintEvalは、性ヒントを含むプロンプトと一致した応答を提供することができるかを評価するために使用される。
論文 参考訳(メタデータ) (2025-05-21T12:49:37Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - Evaluating Gender, Racial, and Age Biases in Large Language Models: A Comparative Analysis of Occupational and Crime Scenarios [0.0]
本稿では,Large Language Models(LLMs)におけるバイアスについて検討する。
LLMは、様々な職業において、男性よりも頻繁に女性キャラクターを描いていることが判明した。
性別と人種の偏見を減らそうとする努力は、しばしば1つのサブクラスを超越する結果をもたらす。
論文 参考訳(メタデータ) (2024-09-22T20:21:20Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - "Kelly is a Warm Person, Joseph is a Role Model": Gender Biases in
LLM-Generated Reference Letters [97.11173801187816]
大規模言語モデル(LLM)は、個人が様々な種類のコンテンツを書くのを支援する効果的なツールとして最近登場した。
本稿では, LLM 生成した参照文字の性別バイアスについて批判的に検討する。
論文 参考訳(メタデータ) (2023-10-13T16:12:57Z) - Gender bias and stereotypes in Large Language Models [0.6882042556551611]
本稿では,ジェンダーステレオタイプに関する大規模言語モデルの振る舞いについて考察する。
我々は、WinoBiasとは違って、性別バイアスの存在をテストするための単純なパラダイムを用いています。
a) LLMは、人の性別とステレオタイプ的に一致した職業を選択する確率が3~6倍、(b) これらの選択は、公務員の統計に反映された基礎的真実よりも人々の知覚に適合し、(d) LLMは、我々の研究項目の95%の時間において重要な曖昧さを無視する。
論文 参考訳(メタデータ) (2023-08-28T22:32:05Z) - Causally Testing Gender Bias in LLMs: A Case Study on Occupational Bias [33.99768156365231]
生成言語モデルにおけるバイアス測定のための因果的定式化を導入する。
我々はOccuGenderというベンチマークを提案し、職業性バイアスを調査するためのバイアス測定手法を提案する。
以上の結果から,これらのモデルでは職業性バイアスがかなり大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-20T22:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。