論文の概要: Is DeepSeek a New Voice Among LLMs in Public Opinion Simulation?
- arxiv url: http://arxiv.org/abs/2506.21587v1
- Date: Tue, 17 Jun 2025 19:19:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.30419
- Title: Is DeepSeek a New Voice Among LLMs in Public Opinion Simulation?
- Title(参考訳): パブリック・オピニオン・シミュレーションにおけるLLMの新たな声はDeepSeekか?
- Authors: Weihong Qi, Fan Huang, Jisun An, Haewoon Kwak,
- Abstract要約: 本研究は,オープンソース大規模言語モデル (LLM) が,IT企業によって開発されたモデルと比較して,世論をシミュレートする能力を評価するものである。
以上の結果から,DeepSeek-V3は中絶問題に対する米国の意見のシミュレートに最善を尽くしていることが明らかとなった。
中国のサンプルでは、DeepSeek-V3は、外国援助や個人主義についての意見をシミュレートする上で最善を尽くしているが、資本主義に関するモデリングの観点には限界がある。
- 参考スコア(独自算出の注目度): 6.489711597270606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study evaluates the ability of DeepSeek, an open-source large language model (LLM), to simulate public opinions in comparison to LLMs developed by major tech companies. By comparing DeepSeek-R1 and DeepSeek-V3 with Qwen2.5, GPT-4o, and Llama-3.3 and utilizing survey data from the American National Election Studies (ANES) and the Zuobiao dataset of China, we assess these models' capacity to predict public opinions on social issues in both China and the United States, highlighting their comparative capabilities between countries. Our findings indicate that DeepSeek-V3 performs best in simulating U.S. opinions on the abortion issue compared to other topics such as climate change, gun control, immigration, and services for same-sex couples, primarily because it more accurately simulates responses when provided with Democratic or liberal personas. For Chinese samples, DeepSeek-V3 performs best in simulating opinions on foreign aid and individualism but shows limitations in modeling views on capitalism, particularly failing to capture the stances of low-income and non-college-educated individuals. It does not exhibit significant differences from other models in simulating opinions on traditionalism and the free market. Further analysis reveals that all LLMs exhibit the tendency to overgeneralize a single perspective within demographic groups, often defaulting to consistent responses within groups. These findings highlight the need to mitigate cultural and demographic biases in LLM-driven public opinion modeling, calling for approaches such as more inclusive training methodologies.
- Abstract(参考訳): 本研究は,大手テック企業が開発したLPMと比較して,世論をシミュレートするオープンソースの大規模言語モデル(LLM)であるDeepSeekの能力を評価する。
本研究は、DeepSeek-R1とDeepSeek-V3をQwen2.5、GPT-4o、Llama-3.3と比較し、アメリカ国家選挙研究会(ANES)と中国のズービアオデータセットによる調査データを活用することにより、これらのモデルの能力を評価し、中国と米国の社会問題に関する世論を予測し、国間の比較能力を強調した。
以上の結果から、DeepSeek-V3は、気候変動、銃規制、移民、同性カップルのサービスといった他のトピックと比較して、中絶問題に対する米国の意見のシミュレートに最適であることが示唆された。
中国のサンプルでは、DeepSeek-V3は、外国援助や個人主義についての意見をシミュレートする上で最善を尽くしているが、資本主義に関するモデリングの観点に制限がある。
伝統主義や自由市場に対する意見をシミュレートする他のモデルとの大きな違いは示さない。
さらなる分析により、全てのLSMは人口統計群内の単一視点を過度に一般化する傾向を示し、しばしば集団内の一貫した応答にデフォルトを課していることが明らかになった。
これらの知見は、LCMが主導する世論モデリングにおいて、より包括的なトレーニング手法のようなアプローチを要求する、文化的・人口的バイアスを軽減する必要性を浮き彫りにした。
関連論文リスト
- Sometimes the Model doth Preach: Quantifying Religious Bias in Open LLMs through Demographic Analysis in Asian Nations [8.769839351949997]
大きな言語モデル(LLM)は、意見を生成し、バイアスを無意識に伝播することができる。
本研究は,LLMが生み出す意見を定量的に分析する手法を提案する。
Llama や Mistral のような近代的でオープンな LLM を世界各国で実施した調査で評価した。
論文 参考訳(メタデータ) (2025-03-10T16:32:03Z) - Algorithmic Fidelity of Large Language Models in Generating Synthetic German Public Opinions: A Case Study [23.458234676060716]
本研究では,大規模言語モデル(LLM)のアルゴリズム的忠実度について検討する。
我々は、人口動態の特徴をペルソナのプロンプトに組み込むことで、ドイツのサブポピュレーションを反映した合成世論を生成するよう、異なるLLMに促す。
以上の結果から,Llama は他の LLM よりも,特にグループ内での意見の多様性が低い場合には,サブポピュレーションの表現に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-12-17T18:46:32Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Vox Populi, Vox AI? Using Language Models to Estimate German Public Opinion [45.84205238554709]
我々は,2017年ドイツ縦断選挙研究の回答者の個人特性と一致するペルソナの合成サンプルを生成した。
我々は,LSM GPT-3.5に対して,各回答者の投票選択を予測し,これらの予測を調査に基づく推定と比較する。
GPT-3.5は市民の投票選択を正確に予測せず、緑の党と左派に偏見を呈している。
論文 参考訳(メタデータ) (2024-07-11T14:52:18Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - Towards Measuring the Representation of Subjective Global Opinions in Language Models [26.999751306332165]
大規模言語モデル(LLM)は、社会問題に関する多様なグローバルな視点を公平に表すものではない。
本研究では,どの意見がモデル生成応答に類似しているかを定量的に評価する枠組みを開発する。
他者が使用して構築するためのデータセットをリリースしています。
論文 参考訳(メタデータ) (2023-06-28T17:31:53Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。