論文の概要: Parametric Social Identity Injection and Diversification in Public Opinion Simulation
- arxiv url: http://arxiv.org/abs/2603.16142v1
- Date: Tue, 17 Mar 2026 05:52:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.118446
- Title: Parametric Social Identity Injection and Diversification in Public Opinion Simulation
- Title(参考訳): パブリックオピニオンシミュレーションにおけるパラメトリックな社会的アイデンティティ注入と多様性
- Authors: Hexi Wang, Yujia Zhou, Bangde Du, Qingyao Ai, Yiqun Liu,
- Abstract要約: 大規模言語モデル(LLM)は近年,世論シミュレーションのための合成エージェントとして採用されている。
スケーラビリティにも拘わらず、現在のシミュレーション手法では社会的多様性を捉えることができない。
人口統計属性の明示的パラメトリック表現を注入する一般フレームワークであるParametric Social Identity Injection (PSII)を提案する。
- 参考スコア(独自算出の注目度): 26.236052138777186
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have recently been adopted as synthetic agents for public opinion simulation, offering a promising alternative to costly and slow human surveys. Despite their scalability, current LLM-based simulation methods fail to capture social diversity, producing flattened inter-group differences and overly homogeneous responses within demographic groups. We identify this limitation as a Diversity Collapse phenomenon in LLM hidden representations, where distinct social identities become increasingly indistinguishable across layers. Motivated by this observation, we propose Parametric Social Identity Injection (PSII), a general framework that injects explicit, parametric representations of demographic attributes and value orientations directly into intermediate hidden states of LLMs. Unlike prompt-based persona conditioning, PSII enables fine-grained and controllable identity modulation at the representation level. Extensive experiments on the World Values Survey using multiple open-source LLMs show that PSII significantly improves distributional fidelity and diversity, reducing KL divergence to real-world survey data while enhancing overall diversity. This work provides new insights into representation-level control of LLM agents and advances scalable, diversity-aware public opinion simulation. Code and data are available at https://github.com/halsayxi/PSII.
- Abstract(参考訳): 大規模言語モデル(LLM)は、最近世論シミュレーションのための合成エージェントとして採用され、高価で遅い人間の調査に代わる有望な代替手段を提供する。
拡張性にもかかわらず、現在のLLMベースのシミュレーション手法は、社会的多様性を捉えることができず、グループ間の相違や人口集団内の過度に均質な応答を生じさせる。
我々は,この制限を LLM の隠蔽表現における多様性の崩壊現象とみなす。
本研究の目的は,人口属性の明示的パラメトリック表現と値配向を直接LLMの中間的隠蔽状態に注入する一般フレームワークであるParametric Social Identity Injection (PSII)を提案することである。
プロンプトベースのペルソナ条件付けとは異なり、PSIIは表現レベルで細粒度で制御可能なアイデンティティ変調を可能にする。
複数のオープンソース LLM を用いた世界価値調査の大規模な実験により、PSII は分布の忠実度と多様性を著しく改善し、KL のばらつきを実際の調査データに還元し、全体的な多様性を高めた。
この研究は、LLMエージェントの表現レベル制御に関する新たな洞察を提供し、スケーラブルで多様性に配慮した世論シミュレーションを進歩させる。
コードとデータはhttps://github.com/halsayxi/PSII.comで公開されている。
関連論文リスト
- Prompts to Proxies: Emulating Human Preferences via a Compact LLM Ensemble [46.82793004650415]
大規模言語モデル(LLM)は、様々なタスクにまたがる人間のような応答をエミュレートする可能性を実証している。
本研究では,LLMをエージェントプロキシとして扱う新しいアライメントフレームワークを提案する。
我々は、構造化されたプロンプトエンジニアリング、エントロピーに基づくサンプリング、回帰に基づく選択を用いて、LLMエージェントを代表的行動パターンに向けて操るシステムであるP2Pを紹介する。
論文 参考訳(メタデータ) (2025-09-14T15:08:45Z) - Population-Aligned Persona Generation for LLM-based Social Simulation [58.84363795421489]
本稿では,社会シミュレーションのための高品質な集団対応ペルソナ集合を合成するための体系的枠組みを提案する。
我々のアプローチは、長期のソーシャルメディアデータから物語的ペルソナを生成するために、大きな言語モデルを活用することから始まる。
特定のシミュレーションコンテキストのニーズに対処するために,対象のサブポピュレーションに対してグローバルに整合したペルソナを適応させるタスク固有モジュールを提案する。
論文 参考訳(メタデータ) (2025-09-12T10:43:47Z) - MF-LLM: Simulating Population Decision Dynamics via a Mean-Field Large Language Model Framework [53.82097200295448]
MF-LLM(Mean-Field LLM)は,まず平均場理論を社会シミュレーションに取り入れる。
MF-LLMは反復過程を通じて個人と人口間の双方向相互作用をモデル化する。
IB-Tuneは、Information Bottleneckの原理にインスパイアされた、新しい微調整手法である。
論文 参考訳(メタデータ) (2025-04-30T12:41:51Z) - Agentic Society: Merging skeleton from real world and texture from Large Language Model [4.740886789811429]
本稿では,人口統計データと大規模言語モデルを利用して仮想人口を生成する新しい枠組みについて検討する。
本手法は,社会科学実験において,多様な人間の行動のシミュレーションに不可欠な多様性のあるペルソナを生産することを示す。
しかし, 評価結果から, 現在のLSMの能力に限界があるため, 統計的真理性の弱い兆候しか得られないことが示唆された。
論文 参考訳(メタデータ) (2024-09-02T08:28:19Z) - Social Debiasing for Fair Multi-modal LLMs [59.61512883471714]
MLLM(Multi-modal Large Language Models)は、研究分野を劇的に進歩させ、強力な視覚言語理解機能を提供する。
これらのモデルは、しばしば訓練データから根深い社会的偏見を継承し、人種や性別などの属性に対する不快な反応をもたらす。
本稿では,MLLMにおける社会的バイアスの問題を,複数の社会的概念を持つ包括的対実的データセットを導入することで解決する。
論文 参考訳(メタデータ) (2024-08-13T02:08:32Z) - Improving Diversity of Demographic Representation in Large Language
Models via Collective-Critiques and Self-Voting [19.79214899011072]
本稿では,生成的大言語モデルにおける表現の多様性を形式化する。
評価データセットを提示し、人や文化軸に沿って生成された反応の多様性を測定する指標を提案する。
LLMは多様性の概念を理解し、その目標に対して自身の反応を推論し、批判することができる。
論文 参考訳(メタデータ) (2023-10-25T10:17:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。