論文の概要: Herd Behavior: Investigating Peer Influence in LLM-based Multi-Agent Systems
- arxiv url: http://arxiv.org/abs/2505.21588v1
- Date: Tue, 27 May 2025 12:12:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.189057
- Title: Herd Behavior: Investigating Peer Influence in LLM-based Multi-Agent Systems
- Title(参考訳): 牧草行動:LLMに基づくマルチエージェントシステムにおけるピアの影響を調査する
- Authors: Young-Min Cho, Sharath Chandra Guntuku, Lyle Ungar,
- Abstract要約: 大規模言語モデル(LLM)に基づくマルチエージェントシステムにおけるピアの影響のダイナミクスについて検討する。
自己自信と他者に対する信頼感のギャップは,エージェントが適合する可能性に大きな影響を及ぼすことを示す。
群集行動の強さを調節する上で,ピア情報提示形式が重要な役割を担っていることがわかった。
- 参考スコア(独自算出の注目度): 7.140644659869317
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have enabled the emergence of multi-agent systems where LLMs interact, collaborate, and make decisions in shared environments. While individual model behavior has been extensively studied, the dynamics of peer influence in such systems remain underexplored. In this paper, we investigate herd behavior, the tendency of agents to align their outputs with those of their peers, within LLM-based multi-agent interactions. We present a series of controlled experiments that reveal how herd behaviors are shaped by multiple factors. First, we show that the gap between self-confidence and perceived confidence in peers significantly impacts an agent's likelihood to conform. Second, we find that the format in which peer information is presented plays a critical role in modulating the strength of herd behavior. Finally, we demonstrate that the degree of herd behavior can be systematically controlled, and that appropriately calibrated herd tendencies can enhance collaborative outcomes. These findings offer new insights into the social dynamics of LLM-based systems and open pathways for designing more effective and adaptive multi-agent collaboration frameworks.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、LLMが共有環境で対話し、協力し、決定を下すマルチエージェントシステムの出現を可能にしている。
個々のモデル行動は広く研究されているが、そのようなシステムにおけるピア・インフルエンス(英語版)のダイナミクスは未解明のままである。
本稿では, LLMに基づくマルチエージェントインタラクションにおいて, 群集行動, エージェントの出力を仲間のものと整合させる傾向について検討する。
群れの行動が複数の要因によってどのように形成されているかを明らかにするための一連の制御実験を提示する。
まず,自己自信と他者に対する信頼感のギャップが,エージェントが適合する可能性に大きな影響を及ぼすことを示す。
第2に、群集行動の強さを調節する上で、ピア情報が提示される形式が重要な役割を担っていることを発見した。
最後に, 群集行動の程度を体系的に制御できること, 群集傾向を適切に調整することで, 協調的な結果を向上できることを実証した。
これらの発見は、LLMベースのシステムの社会的ダイナミクスと、より効果的で適応的なマルチエージェントコラボレーションフレームワークを設計するためのオープンパスに関する新たな洞察を提供する。
関連論文リスト
- Assessing Collective Reasoning in Multi-Agent LLMs via Hidden Profile Tasks [5.120446836495469]
我々は,マルチエージェントLLMシステムのための診断テストベッドとして,社会心理学からの隠れプロファイルパラダイムを紹介した。
エージェント間で重要な情報を非対称に分配することにより、エージェント間ダイナミクスが集団的推論をどのように支援するか、あるいは妨げるかを明らかにする。
協調エージェントは集団的設定において過度に協調する傾向にあるが,矛盾が集団収束を損なうことが示唆された。
論文 参考訳(メタデータ) (2025-05-15T19:22:54Z) - Do as We Do, Not as You Think: the Conformity of Large Language Models [46.23852835759767]
本稿では,大規模言語モデル(LLM)による協調型AIシステムにおける適合性について述べる。
適合性の存在、適合性に影響を与える要因、潜在的な緩和戦略の3つの側面に焦点を当てる。
本分析では, 相互作用時間や過半数サイズなど, 適合性に影響を与える要因を解明し, 対象エージェントが適合行動をどのように合理化するかを検討する。
論文 参考訳(メタデータ) (2025-01-23T04:50:03Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - The Machine Psychology of Cooperation: Can GPT models operationalise prompts for altruism, cooperation, competitiveness and selfishness in economic games? [0.0]
GPT-3.5大言語モデル(LLM)を用いて,協調的,競争的,利他的,利己的行動の自然言語記述を操作可能とした。
被験者と実験心理学研究で用いられるのと同様のプロトコルを用いて,課題環境を記述するためのプロンプトを用いた。
この結果から,LLM が様々な協調姿勢の自然言語記述を適切な作業行動の記述にある程度翻訳できることが示唆された。
論文 参考訳(メタデータ) (2023-05-13T17:23:16Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。