論文の概要: Gender Bias in LLMs: Preliminary Evidence from Shared Parenting Scenario in Czech Family Law
- arxiv url: http://arxiv.org/abs/2601.05879v1
- Date: Fri, 09 Jan 2026 15:55:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:50.019826
- Title: Gender Bias in LLMs: Preliminary Evidence from Shared Parenting Scenario in Czech Family Law
- Title(参考訳): LLMにおけるジェンダーバイアス:チェコの家庭法における共有ペアレントシナリオの予備的証拠
- Authors: Jakub Harasta, Matej Vasina, Martin Kornel, Tomas Foltynek,
- Abstract要約: 本研究では,先行するLarge Language Models (LLM) が,現実的な家族法シナリオに対する性別バイアスを示すか否かを検討する。
チェコの家族法に基づく専門的な離婚シナリオを提示し、最先端のLPMであるGPT-5 nano、Claude Haiku 4.5、Gemini 2.5 Flash、Llama 3.3の4つを評価した。
予備的な結果は、モデル間の差異を強調し、いくつかのシステムによって生成された結果における性別に依存したパターンを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Access to justice remains limited for many people, leading laypersons to increasingly rely on Large Language Models (LLMs) for legal self-help. Laypeople use these tools intuitively, which may lead them to form expectations based on incomplete, incorrect, or biased outputs. This study examines whether leading LLMs exhibit gender bias in their responses to a realistic family law scenario. We present an expert-designed divorce scenario grounded in Czech family law and evaluate four state-of-the-art LLMs GPT-5 nano, Claude Haiku 4.5, Gemini 2.5 Flash, and Llama 3.3 in a fully zero-shot interaction. We deploy two versions of the scenario, one with gendered names and one with neutral labels, to establish a baseline for comparison. We further introduce nine legally relevant factors that vary the factual circumstances of the case and test whether these variations influence the models' proposed shared-parenting ratios. Our preliminary results highlight differences across models and suggest gender-dependent patterns in the outcomes generated by some systems. The findings underscore both the risks associated with laypeople's reliance on LLMs for legal guidance and the need for more robust evaluation of model behavior in sensitive legal contexts. We present exploratory and descriptive evidence intended to identify systematic asymmetries rather than to establish causal effects.
- Abstract(参考訳): 正義へのアクセスは多くの人々にとって制限され続けており、法的な自己啓発のために、日常的にLarge Language Models (LLMs) をますます頼りにしている。
レイピーはこれらのツールを直感的に使い、不完全、不正確、偏りのあるアウトプットに基づいて期待を形成する可能性がある。
本研究は,LLMが現実的な家族法シナリオに対して性差を示すか否かを考察する。
チェコの家族法に基づく専門的な離婚シナリオを提示し、ゼロショットインタラクションにおいて、最先端のLPMであるGPT-5 nano、Claude Haiku 4.5、Gemini 2.5 Flash、Llama 3.3の4つを評価する。
シナリオの2つのバージョンをデプロイします。ひとつは性別のついた名前で、もう一つは中立なラベルで、比較のためのベースラインを確立します。
さらに、ケースの実態に異なる9つの法的関連要因を導入し、これらがモデルの提案した共有親子比に影響を及ぼすかどうかを検証する。
予備的な結果は、モデル間の差異を強調し、いくつかのシステムによって生成された結果における性別に依存したパターンを提案する。
この結果から, 法的な指導のための LLM への依存と, 繊細な法的文脈におけるモデル行動のより堅牢な評価の必要性が示唆された。
我々は,因果効果を確立することよりも,体系的な非対称性を特定することを目的とした探索的および記述的証拠を提示する。
関連論文リスト
- Benchmarking Educational LLMs with Analytics: A Case Study on Gender Bias in Feedback [0.06951558137930917]
本稿では,大規模言語モデル(LLM)のバイアスを検出するための埋め込み型ベンチマークフレームワークを提案する。
AES 2.0コーパスからの600の真正学生エッセイを用いて, 2次元に沿って制御された偽物を構築した。
GPT-5 mini, GPT-4o mini, DeepSeek-R1, DeepSeek-R1-Qwen, Gemini 2.5 Pro, Llama-3-8Bの6種類のLCMについて検討した。
すべてのモデルにおいて、暗黙的な操作は、男性や女性の反事実に対して、女性よりも大きな意味的シフトを確実に引き起こした。
論文 参考訳(メタデータ) (2025-11-11T13:28:44Z) - Mitigating Gender Bias via Fostering Exploratory Thinking in LLMs [15.365993658296016]
大きな言語モデル(LLM)は、しばしば性別バイアスを示し、男女の扱いが不平等になる。
我々のアプローチは、構造的に同一で道徳的に曖昧なシナリオにおいて、男性と女性の主人公を特徴とするストーリーペアを生成するようモデルに促す。
不整合が発生すると、モデルはバランスのとれた性中立的な判断を生み出すように誘導される。
論文 参考訳(メタデータ) (2025-05-22T18:46:50Z) - The LLM Wears Prada: Analysing Gender Bias and Stereotypes through Online Shopping Data [8.26034886618475]
本研究では,オンラインショッピング履歴のみに基づいて,大規模言語モデルが個人の性別を予測できるかどうかを検討する。
米国ユーザーのオンライン購入履歴のデータセットを用いて、性別を分類する6つのLCMの能力を評価する。
結果は、モデルが適度な精度で性別を推測できる一方で、その決定は製品カテゴリーと性別のステレオタイプ的関連に根ざしていることを示している。
論文 参考訳(メタデータ) (2025-04-02T17:56:08Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [91.86718720024825]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Disclosure and Mitigation of Gender Bias in LLMs [64.79319733514266]
大規模言語モデル(LLM)はバイアス応答を生成することができる。
条件生成に基づく間接探索フレームワークを提案する。
LLMにおける明示的・暗黙的な性バイアスを明らかにするための3つの戦略を探求する。
論文 参考訳(メタデータ) (2024-02-17T04:48:55Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - Gender bias and stereotypes in Large Language Models [0.6882042556551611]
本稿では,ジェンダーステレオタイプに関する大規模言語モデルの振る舞いについて考察する。
我々は、WinoBiasとは違って、性別バイアスの存在をテストするための単純なパラダイムを用いています。
a) LLMは、人の性別とステレオタイプ的に一致した職業を選択する確率が3~6倍、(b) これらの選択は、公務員の統計に反映された基礎的真実よりも人々の知覚に適合し、(d) LLMは、我々の研究項目の95%の時間において重要な曖昧さを無視する。
論文 参考訳(メタデータ) (2023-08-28T22:32:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。