論文の概要: The Wisdom of Partisan Crowds: Comparing Collective Intelligence in
Humans and LLM-based Agents
- arxiv url: http://arxiv.org/abs/2311.09665v2
- Date: Fri, 16 Feb 2024 16:43:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 19:57:07.353350
- Title: The Wisdom of Partisan Crowds: Comparing Collective Intelligence in
Humans and LLM-based Agents
- Title(参考訳): パルチザン集団の知恵--人間とllmに基づくエージェントの集団知性の比較
- Authors: Yun-Shiuan Chuang, Siddharth Suresh, Nikunj Harlalka, Agam Goyal,
Robert Hawkins, Sijia Yang, Dhavan Shah, Junjie Hu, Timothy T. Rogers
- Abstract要約: パルチザンの知恵」は「パルチザンの知恵」として知られる現象である。
パルチザンの群衆は、人間のようなパルチザンの偏見を示すが、人間と同じように熟考を通じてより正確な信念に収束する。
コンバージェンスに干渉するいくつかの要因を同定する。例えば、チェーン・オブ・ソート・プロンプトの使用や、ペルソナにおける詳細の欠如などである。
- 参考スコア(独自算出の注目度): 7.986590413263814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human groups are able to converge on more accurate beliefs through
deliberation, even in the presence of polarization and partisan bias -- a
phenomenon known as the "wisdom of partisan crowds." Generated agents powered
by Large Language Models (LLMs) are increasingly used to simulate human
collective behavior, yet few benchmarks exist for evaluating their dynamics
against the behavior of human groups. In this paper, we examine the extent to
which the wisdom of partisan crowds emerges in groups of LLM-based agents that
are prompted to role-play as partisan personas (e.g., Democrat or Republican).
We find that they not only display human-like partisan biases, but also
converge to more accurate beliefs through deliberation as humans do. We then
identify several factors that interfere with convergence, including the use of
chain-of-thought prompt and lack of details in personas. Conversely,
fine-tuning on human data appears to enhance convergence. These findings show
the potential and limitations of LLM-based agents as a model of human
collective intelligence.
- Abstract(参考訳): 人間集団は、分極や党派バイアスの存在下でも、審議を通じてより正確な信念に収束することができる。
大規模言語モデル(llm)を用いた生成エージェントは、人間の集団行動のシミュレーションにますます利用されているが、人間の集団行動に対するダイナミクスを評価するためのベンチマークは少ない。
本稿では,党員の知性が,党員のパーソナラ(例えば民主党や共和党)としてのロールプレイを促されるllmベースのエージェント集団に現れる程度について検討する。
人間のような党派バイアスを見せるだけでなく、人間と同じように熟考を通じてより正確な信念に収束する。
次に、連鎖的思考プロンプトの使用やペルソナにおける詳細の欠如など、収束を妨げるいくつかの要因を特定する。
逆に、人間のデータの微調整は収束性を高めるように見える。
これらの結果は、人間の集団知能のモデルとしてのLSMベースのエージェントの可能性と限界を示している。
関連論文リスト
- RoleInteract: Evaluating the Social Interaction of Role-Playing Agents [85.6641890712617]
社会的相互作用の個人レベルとグループレベルの両方において、ロールプレイング・会話エージェントの社会的性を評価するために設計された最初のベンチマークを紹介する。
ベンチマークはさまざまなソースから構築され、500文字以上と6000以上の質問プロンプトをカバーする。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - Can Large Language Model Agents Simulate Human Trust Behaviors? [75.69583811834073]
大規模言語モデル(LLM)エージェントは、社会科学などの応用において人間をモデル化するためのシミュレーションツールとして、ますます採用されている。
本稿では,人間同士のインタラクションや信頼の最も重要な行動の一つに焦点をあて,LLMエージェントが人間の信頼行動をシミュレートできるかどうかを検討する。
論文 参考訳(メタデータ) (2024-02-07T03:37:19Z) - Limits of Large Language Models in Debating Humans [0.0]
大きな言語モデル(LLM)は、人間と熟達して対話する能力において顕著な可能性を示してきた。
本論文は,LLMエージェントを現実の人間と組み合わせた事前登録研究により,現在のLLMの限界を検証しようとする試みである。
論文 参考訳(メタデータ) (2024-02-06T03:24:27Z) - How Far Are We from Believable AI Agents? A Framework for Evaluating the
Believability of Human Behavior Simulation [49.1914375451351]
我々は,AIエージェントの信頼性を評価するための2つの指標,一貫性と堅牢性,およびベンチマークであるSimulateBenchを紹介する。
エージェント (i) が長文入力を提示した場合の文字情報の正確な描写に苦慮していること, (ii) プロファイルの摂動に対する脆弱性を示すこと, (iii) 全体としての信頼性に影響を及ぼす重要な要因に大きく影響していること,などが判明した。
論文 参考訳(メタデータ) (2023-12-28T16:51:11Z) - On the steerability of large language models toward data-driven personas [98.9138902560793]
大規模言語モデル(LLM)は、特定のグループや集団の意見が不足している偏りのある応答を生成することが知られている。
本稿では, LLM を用いて特定の視点の制御可能な生成を実現するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T19:01:13Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Generative Language Models Exhibit Social Identity Biases [18.175179449419787]
我々は,51大言語モデルにおいて,社会科学の基本的な社会的バイアスである,集団内連帯性と集団外連帯性について検討する。
ほぼすべての基礎言語モデルといくつかの命令微調整モデルは、文の完全化を促すと、グループ内陽性およびグループ外陰性バイアスが明らかになる。
論文 参考訳(メタデータ) (2023-10-24T13:17:40Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Group Cohesion in Multi-Agent Scenarios as an Emergent Behavior [0.0]
本研究は,グループ・アフィリエイト,確実性,能力に対する本質的なニーズを持つインバインエージェントが,エージェント間の社会的行動の出現につながることを示す。
この行動は、グループ内のエージェントに対する利他主義と、グループ外のエージェントに対する敵対的な傾向を表現している。
論文 参考訳(メタデータ) (2022-11-03T18:37:05Z) - Self-supervised Social Relation Representation for Human Group Detection [18.38523753680367]
人間のグループ検出のための新しい2段階のマルチヘッドフレームワークを提案する。
第1段階では,人間行動シミュレーター・ヘッドを提案し,ソーシャル・リレーション・フィーチャの埋め込みを学習する。
第2段階では,社会関係の埋め込みに基づいて,人間集団検出のための自己注意型ネットワークを開発する。
論文 参考訳(メタデータ) (2022-03-08T04:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。