論文の概要: The Wisdom of Partisan Crowds: Comparing Collective Intelligence in
Humans and LLM-based Agents
- arxiv url: http://arxiv.org/abs/2311.09665v2
- Date: Fri, 16 Feb 2024 16:43:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:57:07.353350
- Title: The Wisdom of Partisan Crowds: Comparing Collective Intelligence in
Humans and LLM-based Agents
- Title(参考訳): パルチザン集団の知恵--人間とllmに基づくエージェントの集団知性の比較
- Authors: Yun-Shiuan Chuang, Siddharth Suresh, Nikunj Harlalka, Agam Goyal,
Robert Hawkins, Sijia Yang, Dhavan Shah, Junjie Hu, Timothy T. Rogers
- Abstract要約: パルチザンの知恵」は「パルチザンの知恵」として知られる現象である。
パルチザンの群衆は、人間のようなパルチザンの偏見を示すが、人間と同じように熟考を通じてより正確な信念に収束する。
コンバージェンスに干渉するいくつかの要因を同定する。例えば、チェーン・オブ・ソート・プロンプトの使用や、ペルソナにおける詳細の欠如などである。
- 参考スコア(独自算出の注目度): 7.986590413263814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human groups are able to converge on more accurate beliefs through
deliberation, even in the presence of polarization and partisan bias -- a
phenomenon known as the "wisdom of partisan crowds." Generated agents powered
by Large Language Models (LLMs) are increasingly used to simulate human
collective behavior, yet few benchmarks exist for evaluating their dynamics
against the behavior of human groups. In this paper, we examine the extent to
which the wisdom of partisan crowds emerges in groups of LLM-based agents that
are prompted to role-play as partisan personas (e.g., Democrat or Republican).
We find that they not only display human-like partisan biases, but also
converge to more accurate beliefs through deliberation as humans do. We then
identify several factors that interfere with convergence, including the use of
chain-of-thought prompt and lack of details in personas. Conversely,
fine-tuning on human data appears to enhance convergence. These findings show
the potential and limitations of LLM-based agents as a model of human
collective intelligence.
- Abstract(参考訳): 人間集団は、分極や党派バイアスの存在下でも、審議を通じてより正確な信念に収束することができる。
大規模言語モデル(llm)を用いた生成エージェントは、人間の集団行動のシミュレーションにますます利用されているが、人間の集団行動に対するダイナミクスを評価するためのベンチマークは少ない。
本稿では,党員の知性が,党員のパーソナラ(例えば民主党や共和党)としてのロールプレイを促されるllmベースのエージェント集団に現れる程度について検討する。
人間のような党派バイアスを見せるだけでなく、人間と同じように熟考を通じてより正確な信念に収束する。
次に、連鎖的思考プロンプトの使用やペルソナにおける詳細の欠如など、収束を妨げるいくつかの要因を特定する。
逆に、人間のデータの微調整は収束性を高めるように見える。
これらの結果は、人間の集団知能のモデルとしてのLSMベースのエージェントの可能性と限界を示している。
関連論文リスト
- Emergence of human-like polarization among large language model agents [61.622596148368906]
我々は、何千もの大規模言語モデルエージェントを含むネットワーク化されたシステムをシミュレートし、それらの社会的相互作用を発見し、人間のような偏極をもたらす。
人間とLLMエージェントの類似性は、社会的分極を増幅する能力に関する懸念を提起するだけでなく、それを緩和するための有効な戦略を特定するための貴重なテストベッドとして機能する可能性も持っている。
論文 参考訳(メタデータ) (2025-01-09T11:45:05Z) - The Dynamics of Social Conventions in LLM populations: Spontaneous Emergence, Collective Biases and Tipping Points [0.0]
シミュレーション対話を用いたLarge Language Model (LLM) エージェントの集団内におけるコンベンションのダイナミクスについて検討する。
グローバルに受け入れられる社会慣行は,LLM間の局所的な相互作用から自然に生じうることを示す。
献身的なLLMのマイノリティグループは、新しい社会慣習を確立することで社会変革を促進することができる。
論文 参考訳(メタデータ) (2024-10-11T16:16:38Z) - Beyond Demographics: Aligning Role-playing LLM-based Agents Using Human Belief Networks [5.76230391989518]
人間の調査から得られたデータを用いて,9つの非重複要因に64のトピックをロードする信念ネットワークを推定した。
次に, LLMをベースとしたエージェントを1つのトピックに対する意見付きでシードし, 残りのテストトピックと対応する人的データとのアライメントについて, その表現された意見のアライメントを評価した。
人口統計情報のみに基づくロールプレイングはLLMと人的意見の一致はしなかったが、エージェントを単一の信念でシードすることで、ネットワーク外のトピックではなく、信念ネットワークに関連するトピックのアライメントを大幅に改善した。
論文 参考訳(メタデータ) (2024-06-25T02:37:29Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Can Large Language Model Agents Simulate Human Trust Behavior? [81.45930976132203]
本研究では,Large Language Model (LLM) エージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
GPT-4は、信頼行動の観点から、人間と高い行動アライメントを示す。
また、エージェント信頼のバイアスや、他のLSMエージェントや人間に対するエージェント信頼の差についても検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - Limits of Large Language Models in Debating Humans [0.0]
大規模言語モデル(LLM)を用いて議論するエージェントの限界を厳格に検証する。
エージェントは、人間よりも議論のトピックに溶け込み、集中し、すべてのプレイヤーの生産性を向上させることができることがわかった。
しかし、人間は他の人間ほど説得力も自信も持たず、私たちが収集した人間とエージェントの行動の指標は、互いに大きく異なっています。
論文 参考訳(メタデータ) (2024-02-06T03:24:27Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。