論文の概要: Who Gets Which Message? Auditing Demographic Bias in LLM-Generated Targeted Text
- arxiv url: http://arxiv.org/abs/2601.17172v1
- Date: Fri, 23 Jan 2026 21:07:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.319551
- Title: Who Gets Which Message? Auditing Demographic Bias in LLM-Generated Targeted Text
- Title(参考訳): LLMが生成したテキストのデモグラフィーバイアスを聴くと、誰にメッセージが届くか?
- Authors: Tunazzina Islam,
- Abstract要約: 大規模言語モデル(LLM)は、大規模にパーソナライズされた説得力のあるテキストを生成する能力がますます高まっている。
本稿では,LLMが人口動態を考慮したターゲットメッセージ処理を行う際の振る舞いを,初めて体系的に分析した。
- 参考スコア(独自算出の注目度): 8.06425428468097
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Large language models (LLMs) are increasingly capable of generating personalized, persuasive text at scale, raising new questions about bias and fairness in automated communication. This paper presents the first systematic analysis of how LLMs behave when tasked with demographic-conditioned targeted messaging. We introduce a controlled evaluation framework using three leading models -- GPT-4o, Llama-3.3, and Mistral-Large 2.1 -- across two generation settings: Standalone Generation, which isolates intrinsic demographic effects, and Context-Rich Generation, which incorporates thematic and regional context to emulate realistic targeting. We evaluate generated messages along three dimensions: lexical content, language style, and persuasive framing. We instantiate this framework on climate communication and find consistent age- and gender-based asymmetries across models: male- and youth-targeted messages emphasize agency, innovation, and assertiveness, while female- and senior-targeted messages stress warmth, care, and tradition. Contextual prompts systematically amplify these disparities, with persuasion scores significantly higher for messages tailored to younger or male audiences. Our findings demonstrate how demographic stereotypes can surface and intensify in LLM-generated targeted communication, underscoring the need for bias-aware generation pipelines and transparent auditing frameworks that explicitly account for demographic conditioning in socially sensitive applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は、大規模にパーソナライズされた説得力のあるテキストを生成する能力が高まっており、自動化されたコミュニケーションにおけるバイアスと公平性に関する新たな疑問が提起されている。
本稿では,LLMが人口動態を考慮したターゲットメッセージ処理を行う際の振る舞いを,初めて体系的に分析した。
本稿では,GPT-4o,Llama-3.3,Mistral-Large 2.1の3つのモデルを用いて,本質的な人口動態効果を分離するスタンドアローン生成と,現実的なターゲティングをエミュレートするための主題的コンテキストと地域的コンテキストを組み込んだコンテキストリッチ生成という,制御された評価フレームワークを導入する。
我々は、語彙内容、言語スタイル、説得力のあるフレーミングの3つの次元に沿って生成されたメッセージを評価した。
男性と若者がターゲットとするメッセージはエージェンシー、イノベーション、アサーションを重視し、女性と高齢者がターゲットとするメッセージは温かさ、ケア、伝統を強調します。
文脈的プロンプトはこれらの格差を体系的に増幅し、若年層や男性層に合わせたメッセージに対する説得スコアは著しく高い。
以上の結果から, LLMが生成するターゲット通信において, 人口動態のステレオタイプがどのように表面化・強化され, 社会的に敏感なアプリケーションにおいて, 人口動態を明示的に考慮したバイアス認識パイプラインや透明監査フレームワークの必要性が強調された。
関連論文リスト
- Post-hoc Study of Climate Microtargeting on Social Media Ads with LLMs: Thematic Insights and Fairness Evaluation [24.599293872173362]
本研究は,温暖化対策におけるマイクロターゲットの実践に関するポストホック分析である。
大規模言語モデル(LLM)が意図する人口目標を正確に予測する能力を評価する。
モデル予測におけるバイアスを明らかにするために、包括的公正分析を行う。
論文 参考訳(メタデータ) (2024-10-07T18:07:56Z) - Inclusivity in Large Language Models: Personality Traits and Gender Bias in Scientific Abstracts [49.97673761305336]
我々は,3つの大きな言語モデル (LLM) を,人間の物語スタイルと潜在的な性別バイアスに適合させることで評価した。
以上の結果から,これらのモデルは一般的にヒトの投稿内容によく似たテキストを生成するが,スタイル的特徴の変化は有意な性差を示すことが示唆された。
論文 参考訳(メタデータ) (2024-06-27T19:26:11Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Toward Fairness in Text Generation via Mutual Information Minimization
based on Importance Sampling [23.317845744611375]
そこで本研究では,生成した文のセマンティクスと人口極性との間の相互情報の最小化を提案する。
このように、人口集団の言及は、生成したテキストに記述される方法から独立することが奨励される。
また, 脱バイアス後のPLMの言語モデリング能力を維持する蒸留機構を提案する。
論文 参考訳(メタデータ) (2023-02-25T18:29:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。