論文の概要: Simulating Opinion Dynamics with Networks of LLM-based Agents
- arxiv url: http://arxiv.org/abs/2311.09618v1
- Date: Thu, 16 Nov 2023 07:01:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 16:15:45.610541
- Title: Simulating Opinion Dynamics with Networks of LLM-based Agents
- Title(参考訳): LLMエージェントのネットワークによるオピニオンダイナミクスのシミュレーション
- Authors: Yun-Shiuan Chuang, Agam Goyal, Nikunj Harlalka, Siddharth Suresh,
Robert Hawkins, Sijia Yang, Dhavan Shah, Junjie Hu, Timothy T. Rogers
- Abstract要約: 本稿では,Large Language Models (LLMs) の集団に基づく意見力学のシミュレーション手法を提案する。
以上の結果から,LSMエージェントの正確な情報に対するバイアスが強く,科学的現実と一致していることが明らかとなった。
素早い工学を通して確認バイアスを誘導した後、既存のエージェントベース研究と一致した意見の断片化を観察した。
- 参考スコア(独自算出の注目度): 7.986590413263814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately simulating human opinion dynamics is crucial for understanding a
variety of societal phenomena, including polarization and the spread of
misinformation. However, the agent-based models (ABMs) commonly used for such
simulations lack fidelity to human behavior. We propose a new approach to
simulating opinion dynamics based on populations of Large Language Models
(LLMs). Our findings reveal a strong inherent bias in LLM agents towards
accurate information, leading to consensus in line with scientific reality.
However, this bias limits the simulation of individuals with resistant views on
issues like climate change. After inducing confirmation bias through prompt
engineering, we observed opinion fragmentation in line with existing
agent-based research. These insights highlight the promise and limitations of
LLM agents in this domain and suggest a path forward: refining LLMs with
real-world discourse to better simulate the evolution of human beliefs.
- Abstract(参考訳): 人間の意見の正確なシミュレーションは、偏光や誤情報の拡散など、様々な社会現象を理解するために重要である。
しかしながら、そのようなシミュレーションに一般的に使用されるエージェントベースモデル(ABM)は人間の行動に対する忠実さを欠いている。
本稿では,Large Language Models (LLMs) の集団に基づく意見力学のシミュレーション手法を提案する。
以上の結果から,LSMエージェントの正確な情報に対するバイアスが強く,科学的現実と一致していることが明らかとなった。
しかし、このバイアスは、気候変動のような問題に対する抵抗的な見解を持つ個人のシミュレーションを制限する。
プロンプトエンジニアリングによる確認バイアスを誘発した後,既存のエージェントベース研究と一致して意見の断片化を観察した。
これらの洞察は、この領域におけるllmエージェントの約束と限界を強調し、前進を示唆している:人間の信念の進化をよりよくシミュレートするために、現実世界の談話でllmを洗練する。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Fusing Dynamics Equation: A Social Opinions Prediction Algorithm with LLM-based Agents [6.1923703280119105]
本稿では,ソーシャルメディア利用者の意見を動的に表現するための革新的なシミュレーション手法を提案する。
FDE-LLMアルゴリズムは意見力学と流行モデルを含む。
ユーザーを意見のリーダーとフォロワーに分類する。
論文 参考訳(メタデータ) (2024-09-13T11:02:28Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - Explaining Large Language Models Decisions Using Shapley Values [1.223779595809275]
大規模言語モデル(LLM)は、人間の行動や認知過程をシミュレートするエキサイティングな可能性を開いた。
しかし, LLMを人体用スタンドインとして活用する妥当性は, いまだに不明である。
本稿では,モデルの出力に対する各プロンプト成分の相対的寄与を定量化するために,シェープリー値に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-29T22:49:43Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - LLM-driven Imitation of Subrational Behavior : Illusion or Reality? [3.2365468114603937]
既存の作業は、複雑な推論タスクに対処し、人間のコミュニケーションを模倣する大規模言語モデルの能力を強調している。
そこで本研究では,LLMを用いて人工人体を合成し,サブリレーショナル・エージェント・ポリシーを学習する手法を提案する。
我々は,4つの単純なシナリオを通して,サブリレータリティをモデル化するフレームワークの能力について実験的に評価した。
論文 参考訳(メタデータ) (2024-02-13T19:46:39Z) - Systematic Biases in LLM Simulations of Debates [12.933509143906141]
人間の相互作用をシミュレートする際の大規模言語モデルの限界について検討する。
以上の結果から, LLMエージェントがモデル固有の社会的バイアスに適合する傾向が示唆された。
これらの結果は、エージェントがこれらのバイアスを克服するのに役立つ方法を開発するためのさらなる研究の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-06T14:51:55Z) - Large Language Models as Subpopulation Representative Models: A Review [5.439020425819001]
大言語モデル(LLM)は、サブポピュレーション代表モデル(SRM)を推定するために用いられる。
LLMは、人口統計、地理的、政治的セグメント間の世論を測る代替的あるいは補完的な手段を提供することができる。
論文 参考訳(メタデータ) (2023-10-27T04:31:27Z) - CoMPosT: Characterizing and Evaluating Caricature in LLM Simulations [61.9212914612875]
本研究では,LLMシミュレーションを4次元(コンテキスト,モデル,ペルソナ,トピック)で特徴付けるフレームワークを提案する。
我々は,この枠組みを用いて,オープンエンドLLMシミュレーションのキャラクチュアへの感受性を測定する。
GPT-4では、特定の人口動態(政治的・疎外化グループ)と話題(一般には非論争的)のシミュレーションは、似顔絵に非常に敏感であることが判明した。
論文 参考訳(メタデータ) (2023-10-17T18:00:25Z) - Reinforcement Learning with Human Feedback for Realistic Traffic
Simulation [53.85002640149283]
効果的なシミュレーションの鍵となる要素は、人間の知識と整合した現実的な交通モデルの導入である。
本研究では,現実主義に対する人間の嗜好のニュアンスを捉えることと,多様な交通シミュレーションモデルを統合することの2つの主な課題を明らかにする。
論文 参考訳(メタデータ) (2023-09-01T19:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。