論文の概要: Investigating Gender Stereotypes in Large Language Models via Social Determinants of Health
- arxiv url: http://arxiv.org/abs/2603.09416v1
- Date: Tue, 10 Mar 2026 09:30:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.205482
- Title: Investigating Gender Stereotypes in Large Language Models via Social Determinants of Health
- Title(参考訳): 健康決定因子を用いた大規模言語モデルにおけるジェンダーステレオタイプの検討
- Authors: Trung Hieu Ngo, Adrien Bazoge, Solen Quiniou, Pierre-Antoine Gourraud, Emmanuel Morin,
- Abstract要約: 本研究は,フランスにおける大規模言語モデル (LLMs) のバイアスについて,性別と他の社会的健康決定因子 (SDoH) の関係を調査することによって検討した。
組込みステレオタイプはSDoH入力を用いて探索することができ、LSMはジェンダー決定を行うために組込みステレオタイプに依存していることがわかった。
- 参考スコア(独自算出の注目度): 3.882406906675888
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) excel in Natural Language Processing (NLP) tasks, but they often propagate biases embedded in their training data, which is potentially impactful in sensitive domains like healthcare. While existing benchmarks evaluate biases related to individual social determinants of health (SDoH) such as gender or ethnicity, they often overlook interactions between these factors and lack context-specific assessments. This study investigates bias in LLMs by probing the relationships between gender and other SDoH in French patient records. Through a series of experiments, we found that embedded stereotypes can be probed using SDoH input and that LLMs rely on embedded stereotypes to make gendered decisions, suggesting that evaluating interactions among SDoH factors could usefully complement existing approaches to assessing LLM performance and bias.
- Abstract(参考訳): 大規模言語モデル(LLM)は自然言語処理(NLP)タスクに優れていますが、トレーニングデータに埋め込まれたバイアスを伝播することが多いため、医療などのセンシティブな領域に影響を与えます。
既存のベンチマークでは、性別や民族などの個人の社会的決定要因(SDoH)に関するバイアスを評価しているが、これらの要因間の相互作用を見落とし、文脈固有の評価を欠いていることが多い。
本研究は,フランスにおけるSDoHと性別の関係を調査し,LSMのバイアスについて検討した。
一連の実験により, 組込みステレオタイプをSDoH入力を用いて探索し, 組込みステレオタイプを用いて性別決定を行い, SDoH要因間の相互作用を評価することで, LLM性能とバイアスを評価する既存のアプローチを補完する可能性が示唆された。
関連論文リスト
- Exploring Gender Bias in Large Language Models: An In-depth Dive into the German Language [21.87606488958834]
大規模言語モデル(LLM)における性別バイアス評価のためのドイツの5つのデータセットを提案する。
データセットは、ジェンダーバイアスというよく確立された概念に基づいており、複数の方法論を通してアクセス可能である。
8種類の多言語 LLM モデルで報告された本研究は,ドイツ語の性差にかかわる独特な課題を明らかにした。
論文 参考訳(メタデータ) (2025-07-22T13:09:41Z) - From Measurement to Mitigation: Exploring the Transferability of Debiasing Approaches to Gender Bias in Maltese Language Models [0.0]
本研究では,マルタ語モデルへのデバイアス法の適用可能性について検討する。
我々は、CrowS-PairsやSEATといったベンチマークと、デバイアス法、デファクトデータ拡張、ドロップアウト正規化、オートデバイアス、GuiDebiasといったデバイアス手法を用いています。
本研究は,既存のバイアス緩和手法を言語学的に複雑な言語に適用する上での課題を浮き彫りにした。
論文 参考訳(メタデータ) (2025-07-03T19:45:01Z) - From Individuals to Interactions: Benchmarking Gender Bias in Multimodal Large Language Models from the Lens of Social Relationship [13.416624729344477]
我々はジェネレス(Genres)について紹介する。ジェネレス(Genres)は、MLLMにおけるジェンダーバイアスを評価するための新しいベンチマークである。
本研究は,MLLMにおける性差の微妙な性差の診断における関係認識ベンチマークの重要性を裏付けるものである。
論文 参考訳(メタデータ) (2025-06-29T06:03:21Z) - A database to support the evaluation of gender biases in GPT-4o output [4.517392236571035]
大規模言語モデル(LLM)の顕著な倫理的リスクは、不公平な言語出力の生成である。
本稿では,ジェンダー関連バイアスを評価するためのデータベース構築手法を提案する。
論文 参考訳(メタデータ) (2025-02-28T09:54:13Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - How Can We Diagnose and Treat Bias in Large Language Models for Clinical Decision-Making? [2.7476176772825904]
本研究では,大規模言語モデル(LLM)におけるバイアスの評価と緩和について検討する。
本稿では,JAMAクリニカルチャレンジから得られた新しいCPVデータセットについて紹介する。
このデータセットを用いて、複数の選択質問(MCQ)とそれに対応する説明を併用し、バイアス評価のためのフレームワークを構築した。
論文 参考訳(メタデータ) (2024-10-21T23:14:10Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。