論文の概要: The Roots of International Perceptions: Simulating US Attitude Changes Towards China with LLM Agents
- arxiv url: http://arxiv.org/abs/2508.08837v1
- Date: Tue, 12 Aug 2025 10:54:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.399395
- Title: The Roots of International Perceptions: Simulating US Attitude Changes Towards China with LLM Agents
- Title(参考訳): 国際認識の根本:LLMエージェントによる中国への米国の態度変化のシミュレーション
- Authors: Nicholas Sukiennik, Yichuan Xu, Yuqing Kan, Jinghua Piao, Yuwei Yan, Chen Gao, Yong Li,
- Abstract要約: 意見更新のためのメディアデータ収集,ユーザプロファイル作成,認知アーキテクチャを統合したフレームワークを提案する。
我々の研究は,LLMに基づく認知行動モデリングの新しいパラダイムに寄与する。
- 参考スコア(独自算出の注目度): 19.380405101976407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of LLMs poses new possibilities in modeling opinion evolution, a long-standing task in simulation, by leveraging advanced reasoning abilities to recreate complex, large-scale human cognitive trends. While most prior works focus on opinion evolution surrounding specific isolated events or the views within a country, ours is the first to model the large-scale attitude evolution of a population representing an entire country towards another -- US citizens' perspectives towards China. To tackle the challenges of this broad scenario, we propose a framework that integrates media data collection, user profile creation, and cognitive architecture for opinion updates to successfully reproduce the real trend of US attitudes towards China over a 20-year period from 2005 to today. We also leverage LLMs' capabilities to introduce debiased media exposure, extracting neutral events from typically subjective news contents, to uncover the roots of polarized opinion formation, as well as a devils advocate agent to help explain the rare reversal from negative to positive attitudes towards China, corresponding with changes in the way Americans obtain information about the country. The simulation results, beyond validating our framework architecture, also reveal the impact of biased framing and selection bias in shaping attitudes. Overall, our work contributes to a new paradigm for LLM-based modeling of cognitive behaviors in a large-scale, long-term, cross-border social context, providing insights into the formation of international biases and offering valuable implications for media consumers to better understand the factors shaping their perspectives, and ultimately contributing to the larger social need for bias reduction and cross-cultural tolerance.
- Abstract(参考訳): LLMの台頭は、複雑な大規模人間の認知傾向を再現する高度な推論能力を活用することによって、シミュレーションにおける長年の課題であるモデリング意見の進化において、新たな可能性をもたらす。
これまでのほとんどの作品では、特定の孤立した出来事や国内の見解を取り巻く意見の進化に焦点を当てていたが、米国市民の中国に対する見方を反映した集団の大規模な態度の進化をモデル化するのは、私たちの最初の例だ」と述べた。
この幅広いシナリオの課題に対処するため,2005年から現在までの20年間の米国における中国に対する態度の本当の傾向を再現するために,意見更新のためのメディアデータ収集,ユーザプロファイル作成,認知アーキテクチャを統合したフレームワークを提案する。
また、中国に対する否定的な態度から肯定的な態度へのレア・リバーサルの説明を支援するデビルズ・アドボケート・エージェントも、米国人が中国に関する情報を得る方法の変化に応じて、偏見のあるメディア露出の導入、通常主観的なニュースコンテンツから中立的な出来事の抽出、偏見的世論形成のルーツの解明に活用する。
シミュレーションの結果は、フレームワークアーキテクチャの検証を超えて、バイアスドフレーミングと選択バイアスがシェーピング姿勢に及ぼす影響を明らかにします。
全体として、我々の研究は、LLMに基づく認知行動の大規模、長期的、国境を越えた社会的文脈におけるモデリングの新たなパラダイムに寄与し、国際バイアスの形成に関する洞察を提供し、メディア消費者が自身の視点を形成する要因をよりよく理解し、最終的にバイアス低減と異文化間の寛容に対するより大きな社会的ニーズに寄与する。
関連論文リスト
- Do Vision-Language Models Have Internal World Models? Towards an Atomic Evaluation [54.3628937181904]
内部世界モデル(英語版)(WM)は、エージェントが世界の状態を理解し、遷移を予測することを可能にする。
近年,OpenAI o3, GPT-4o, Geminiなどの大規模視覚言語モデル(VLM)は汎用的なWMとしての可能性を示している。
論文 参考訳(メタデータ) (2025-06-27T03:24:29Z) - Unequal Opportunities: Examining the Bias in Geographical Recommendations by Large Language Models [11.585115320816257]
本研究では,米国の都市・都市におけるLarge Language Models(LLMs)勧告におけるバイアスについて検討した。
我々は, LLMs応答の一貫性と, 過度に表現されたり, あるいは過度に表現されたりする傾向に注目した。
以上の結果から,従来の経済格差を拡大するリッチ・ゲット・リッチ・エフェクトが持続する可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-16T18:59:00Z) - Sometimes the Model doth Preach: Quantifying Religious Bias in Open LLMs through Demographic Analysis in Asian Nations [8.769839351949997]
大きな言語モデル(LLM)は、意見を生成し、バイアスを無意識に伝播することができる。
本研究は,LLMが生み出す意見を定量的に分析する手法を提案する。
Llama や Mistral のような近代的でオープンな LLM を世界各国で実施した調査で評価した。
論文 参考訳(メタデータ) (2025-03-10T16:32:03Z) - Synthetic Social Media Influence Experimentation via an Agentic Reinforcement Learning Large Language Model Bot [7.242974711907219]
本研究は,エージェント・インテリジェンスとLarge Language Models(LLM)を組み合わせることで,トピック固有の影響メカニズムをテストする新しいシミュレーション環境を提供する。
我々のフレームワークには、投稿を生成し、特定のトピックについて意見を形成し、議論の結果に基づいて相互にフォロー/アンフォローするエージェントが含まれています。
論文 参考訳(メタデータ) (2024-11-29T11:37:12Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - From Skepticism to Acceptance: Simulating the Attitude Dynamics Toward Fake News [38.990330255607276]
大規模言語モデル(LLM)に基づくフェイクニュース伝搬シミュレーションフレームワークを提案する。
シミュレーションの結果,話題の関連性や個々の特徴に関連する偽ニュースの伝播パターンが,実世界の観測と一致していることがわかった。
論文 参考訳(メタデータ) (2024-03-14T15:40:13Z) - Survey of Social Bias in Vision-Language Models [65.44579542312489]
調査の目的は、NLP、CV、VLをまたいだ事前学習モデルにおける社会バイアス研究の類似点と相違点について、研究者に高いレベルの洞察を提供することである。
ここで提示された発見とレコメンデーションはMLコミュニティの利益となり、公平でバイアスのないAIモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-09-24T15:34:56Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。