論文の概要: Generative Exaggeration in LLM Social Agents: Consistency, Bias, and Toxicity
- arxiv url: http://arxiv.org/abs/2507.00657v1
- Date: Tue, 01 Jul 2025 10:54:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.585314
- Title: Generative Exaggeration in LLM Social Agents: Consistency, Bias, and Toxicity
- Title(参考訳): LLMソーシャルエージェントにおける生成的誇張--一貫性,バイアス,毒性
- Authors: Jacopo Nudo, Mario Edoardo Pandolfo, Edoardo Loru, Mattia Samory, Matteo Cinelli, Walter Quattrociocchi,
- Abstract要約: ソーシャルメディア上での政治談話のシミュレーションにおいて,Large Language Models (LLM) がどのように振る舞うかを検討する。
我々は、実ユーザ1,186名に基づくLCMエージェントを構築し、制御された条件下で政治的に健全なツイートに返信するよう促す。
よりリッチな文脈化によって内部の一貫性が向上するだけでなく、分極、スタイリングされた信号、有害な言語も増幅される。
- 参考スコア(独自算出の注目度): 2.3997896447030653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate how Large Language Models (LLMs) behave when simulating political discourse on social media. Leveraging 21 million interactions on X during the 2024 U.S. presidential election, we construct LLM agents based on 1,186 real users, prompting them to reply to politically salient tweets under controlled conditions. Agents are initialized either with minimal ideological cues (Zero Shot) or recent tweet history (Few Shot), allowing one-to-one comparisons with human replies. We evaluate three model families (Gemini, Mistral, and DeepSeek) across linguistic style, ideological consistency, and toxicity. We find that richer contextualization improves internal consistency but also amplifies polarization, stylized signals, and harmful language. We observe an emergent distortion that we call "generation exaggeration": a systematic amplification of salient traits beyond empirical baselines. Our analysis shows that LLMs do not emulate users, they reconstruct them. Their outputs, indeed, reflect internal optimization dynamics more than observed behavior, introducing structural biases that compromise their reliability as social proxies. This challenges their use in content moderation, deliberative simulations, and policy modeling.
- Abstract(参考訳): ソーシャルメディア上での政治談話のシミュレーションにおいて,Large Language Models (LLM) がどのように振る舞うかを検討する。
2024年のアメリカ合衆国大統領選挙において、X上で2100万件のインタラクションを活用して、1,186人の実際のユーザーに基づくLLMエージェントを構築し、規制された条件下で政治的に健全なツイートに返信するように促した。
エージェントは最小限のイデオロギー的手がかり(Zero Shot)または最近のツイート履歴(Few Shot)で初期化され、人間の反応と1対1で比較できる。
我々は,言語様式,イデオロギーの整合性,毒性の3つのモデルファミリー(Gemini,Mistral,DeepSeek)を評価した。
よりリッチな文脈化によって内部の一貫性が向上するだけでなく、分極、スタイリングされた信号、有害な言語も増幅される。
我々は「世代誇張」と呼ばれる創発的な歪みを観察し、経験的基準を超えた有能な特性を体系的に増幅する。
分析の結果,LLMはユーザをエミュレートせず,再構築することがわかった。
彼らの出力は実際に、観察された振る舞いよりも内部最適化のダイナミクスを反映し、社会的プロキシとしての信頼性を損なう構造的バイアスを導入している。
これは、コンテンツモデレーション、熟考シミュレーション、ポリシーモデリングにおける彼らの使用に挑戦する。
関連論文リスト
- Passing the Turing Test in Political Discourse: Fine-Tuning LLMs to Mimic Polarized Social Media Comments [0.0]
本研究では、微調整された大言語モデル(LLM)が、偏光言説を再現し増幅できる範囲について検討する。
Redditから抽出された政治的に課金された議論のキュレートされたデータセットを使用して、オープンソースのLCMを微調整して、コンテキスト認識とイデオロギー的に整合した応答を生成します。
結果は、パルチザンのデータに基づいてトレーニングすると、LLMは高い信頼性と挑発的なコメントを生成でき、しばしば人間によって書かれたものと区別できないことを示唆している。
論文 参考訳(メタデータ) (2025-06-17T15:41:26Z) - Through the LLM Looking Glass: A Socratic Probing of Donkeys, Elephants, and Markets [42.55423041662188]
この研究は、外部解釈に頼るのではなく、モデルのバイアスを直接測定することを目的としている。
我々の結果は、あらゆるモデルで共和党の立場よりも民主党を一貫して好んでいることを示している。
経済の話題では、西洋のLLMには偏見があるが、中国で開発されたものは社会主義に強く依存している。
論文 参考訳(メタデータ) (2025-03-20T19:40:40Z) - Can LLMs Simulate Social Media Engagement? A Study on Action-Guided Response Generation [51.44040615856536]
本稿では、行動誘導応答生成によるソーシャルメディアのエンゲージメントをシミュレートする大規模言語モデルの能力について分析する。
GPT-4o-mini,O1-mini,DeepSeek-R1をソーシャルメディアエンゲージメントシミュレーションで評価した。
論文 参考訳(メタデータ) (2025-02-17T17:43:08Z) - Incivility and Rigidity: The Risks of Fine-Tuning LLMs for Political Argumentation [11.255011967393838]
Twitter(現在のX)やRedditなどのプラットフォームで普及している収益性は、AIシステムを開発する上での課題となっている。
本研究では,2つの対照的な政治的議論データセットを微調整した GPT-3.5 Turbo 実験について報告する。
Redditがカスタマイズしたモデルでは、より安全だが厳格な議論が生まれ、クロスプラットフォームの微調整は毒性を増幅する。
論文 参考訳(メタデータ) (2024-11-25T15:28:11Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Towards Implicit Bias Detection and Mitigation in Multi-Agent LLM Interactions [25.809599403713506]
大規模言語モデル(LLM)は、社会をシミュレートし、多様な社会的タスクを実行するために、多くの研究で採用されている。
LLMは、人為的なデータに曝されるため、社会的偏見に影響を受けやすい。
本研究では,多エージェントLDM相互作用における性バイアスの存在について検討し,これらのバイアスを軽減するための2つの方法を提案する。
論文 参考訳(メタデータ) (2024-10-03T15:28:05Z) - White Men Lead, Black Women Help? Benchmarking and Mitigating Language Agency Social Biases in LLMs [58.27353205269664]
社会的バイアスは、Large Language Model(LLM)生成コンテンツにおいて言語エージェンシーに現れる。
LLMのバイアスを包括的に評価するLanguage Agency Bias Evaluationベンチマークを導入する。
LABEを用いて,近年の3つのLLM(ChatGPT,Llama3,Mistral)における言語エージェントの社会的バイアスを明らかにした。
論文 参考訳(メタデータ) (2024-04-16T12:27:54Z) - Pride and Prejudice: LLM Amplifies Self-Bias in Self-Refinement [75.7148545929689]
大規模言語モデル(LLM)は、特定のタスクの自己フィードバックを通じてパフォーマンスを向上し、他のタスクを劣化させる。
我々は、LSMの自己バイアス(自称世代を好む傾向)を正式に定義する。
我々は、翻訳、制約付きテキスト生成、数学的推論の6つのLCMを解析する。
論文 参考訳(メタデータ) (2024-02-18T03:10:39Z) - Simulating Opinion Dynamics with Networks of LLM-based Agents [7.697132934635411]
本稿では,Large Language Models (LLMs) の集団に基づく意見力学のシミュレーション手法を提案する。
以上の結果から, LLMエージェントの正確な情報生成に対するバイアスが強く, シミュレーションエージェントが科学的現実に一致していることが明らかとなった。
しかし、素早い工学を通して確認バイアスを誘導した後、既存のエージェント・ベース・モデリングや意見ダイナミクス研究と並んで意見の断片化を観察した。
論文 参考訳(メタデータ) (2023-11-16T07:01:48Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。