論文の概要: Probing Cultural Signals in Large Language Models through Author Profiling
- arxiv url: http://arxiv.org/abs/2603.16749v1
- Date: Tue, 17 Mar 2026 16:27:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.417613
- Title: Probing Cultural Signals in Large Language Models through Author Profiling
- Title(参考訳): 著者プロファイリングによる大規模言語モデルにおける文化的信号の探索
- Authors: Valentin Lafargue, Ariel Guerra-Adames, Emmanuelle Claeys, Elouan Vuichard, Jean-Michel Loubes,
- Abstract要約: 大規模言語モデル(LLM)は、社会的影響のあるアプリケーションにますます多くデプロイされている。
LLMがゼロショット設定で歌詞から著者のプロファイリングを行うことができるかどうかを評価する。
LLMは非自明なプロファイリング性能を実現するが、体系的な文化的アライメントを示す。
- 参考スコア(独自算出の注目度): 2.7402733069181
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are increasingly deployed in applications with societal impact, raising concerns about the cultural biases they encode. We probe these representations by evaluating whether LLMs can perform author profiling from song lyrics in a zero-shot setting, inferring singers' gender and ethnicity without task-specific fine-tuning. Across several open-source models evaluated on more than 10,000 lyrics, we find that LLMs achieve non-trivial profiling performance but demonstrate systematic cultural alignment: most models default toward North American ethnicity, while DeepSeek-1.5B aligns more strongly with Asian ethnicity. This finding emerges from both the models' prediction distributions and an analysis of their generated rationales. To quantify these disparities, we introduce two fairness metrics, Modality Accuracy Divergence (MAD) and Recall Divergence (RD), and show that Ministral-8B displays the strongest ethnicity bias among the evaluated models, whereas Gemma-12B shows the most balanced behavior. Our code is available on GitHub (https://github.com/ValentinLafargue/CulturalProbingLLM).
- Abstract(参考訳): 大規模言語モデル(LLM)は、社会的影響のあるアプリケーションにますますデプロイされ、彼らがエンコードする文化的バイアスに対する懸念が高まっている。
LLMが曲の歌詞からゼロショット設定で作者のプロファイリングを行うことができるかどうかを評価し,タスク固有の微調整なしで歌手の性別や民族性を推定することによって,これらの表現を検証した。
1万以上の歌詞で評価されたオープンソースのモデルの中で、LCMは非自明なプロファイリングのパフォーマンスを達成しているが、体系的な文化的アライメントを実証している: ほとんどのモデルは北アメリカの民族に対してデフォルトであり、DeepSeek-1.5Bはアジア民族とより強く一致している。
この発見は、モデルの予測分布と、生成された有理性の解析の両方から生じる。
これらの格差を定量化するために,モーダリティ・精度・ディバージェンス(MAD)とリコール・ディバージェンス(RD)という2つのフェアネス指標を導入し,Ministral-8Bが評価されたモデルの中で最強の民族性バイアスを示すのに対し,Gemma-12Bは最もバランスの取れた振る舞いを示す。
私たちのコードはGitHubで入手できる(https://github.com/ValentinLafargue/CulturalProbingLLM)。
関連論文リスト
- Addressing Stereotypes in Large Language Models: A Critical Examination and Mitigation [0.0]
自然言語処理(NLP)の発展に伴い,近年,大規模言語モデル (LLM) が普及している。
本研究は, 生成人工知能(AI)の増大に伴い, LLMのバイアスに対処する必要があることを調査し, 強調する。
我々は, StereoSet や CrowSPairs などのバイアス特異的なベンチマークを用いて,BERT や GPT 3.5,ADA など,様々な世代モデルにおける様々なバイアスの存在を評価する。
論文 参考訳(メタデータ) (2025-11-18T05:43:34Z) - Person-Centric Annotations of LAION-400M: Auditing Bias and Its Transfer to Models [81.45743826739054]
大きな障壁は、LAION-400MのようなWebスケールデータセットにおける人口統計アノテーションの欠如である。
2億7600万以上のバウンディングボックスや、性別や人種/民族ラベルの認識、キャプションの自動生成など、完全なデータセットのための人中心アノテーションを作成します。
それらを用いて、黒人や中東と見なされる男性や個人と犯罪に関連する負のコンテンツとの不均等な結びつきなど、人口不均衡や有害な関連を明らかにする。
論文 参考訳(メタデータ) (2025-10-04T07:51:59Z) - Which Cultural Lens Do Models Adopt? On Cultural Positioning Bias and Agentic Mitigation in LLMs [53.07843733899881]
大規模言語モデル(LLM)は、幅広い下流生成アプリケーションをアンロックした。
また、米国主流の文化の観点から、文化にまつわる微妙な公平性の問題に対処し、世代を配置するリスクも見いだす。
本稿では、これらのバイアスを解決するための2つの推論時間緩和法を提案する。
論文 参考訳(メタデータ) (2025-09-25T12:28:25Z) - How Deep Is Representational Bias in LLMs? The Cases of Caste and Religion [25.340454708475754]
我々は、宗教と鋳造のための大きな言語モデルにおける表現バイアスの存在と「粘り強さ」を定量化する。
GPT-4の反応は、文化的に支配的な集団を、その統計的表現をはるかに超越している。
以上の結果から, LLMにおける表現バイアスは, 学習データにおける分布バイアスよりも, あらゆる品質に偏りがあることが示唆された。
論文 参考訳(メタデータ) (2025-07-22T17:28:37Z) - On Fairness of Unified Multimodal Large Language Model for Image Generation [19.122441856516215]
最新のU-MLLMをベンチマークした結果、ほとんどの場合、性別や人種バイアスなど、大きな人口統計バイアスが示されることがわかった。
我々の分析は、偏見は主に言語モデルに由来することを示している。
本稿では、人口分布と合成データとのバランスをとるために、新しいバランスの取れた選好モデルを提案する。
論文 参考訳(メタデータ) (2025-02-05T18:21:03Z) - Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Sociodemographic Prompting is Not Yet an Effective Approach for Simulating Subjective Judgments with LLMs [13.744746481528711]
大規模言語モデル(LLM)は、様々な文脈で人間の反応をシミュレートするために広く使われている。
我々は,2つの主観的判断課題(丁寧さと攻撃性)において,人口差を理解する能力について,9つの人気のLCMを評価した。
ゼロショット設定では、両方のタスクのほとんどのモデルの予測は、アジアやブラックの参加者よりもホワイトの参加者のラベルとより密接に一致している。
論文 参考訳(メタデータ) (2023-11-16T10:02:24Z) - CBBQ: A Chinese Bias Benchmark Dataset Curated with Human-AI
Collaboration for Large Language Models [52.25049362267279]
本稿では,人的専門家と生成言語モデルによって共同で構築された100万以上の質問からなる中国語バイアスベンチマークデータセットを提案する。
データセットのテストインスタンスは、手作業による厳格な品質管理を備えた3K以上の高品質テンプレートから自動的に抽出される。
大規模な実験により、データセットがモデルバイアスを検出することの有効性が実証された。
論文 参考訳(メタデータ) (2023-06-28T14:14:44Z) - Causally Testing Gender Bias in LLMs: A Case Study on Occupational Bias [33.99768156365231]
生成言語モデルにおけるバイアス測定のための因果的定式化を導入する。
我々はOccuGenderというベンチマークを提案し、職業性バイアスを調査するためのバイアス測定手法を提案する。
以上の結果から,これらのモデルでは職業性バイアスがかなり大きいことが示唆された。
論文 参考訳(メタデータ) (2022-12-20T22:41:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。