論文の概要: The Power of Stories: Narrative Priming Shapes How LLM Agents Collaborate and Compete
- arxiv url: http://arxiv.org/abs/2505.03961v2
- Date: Thu, 08 May 2025 08:29:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 13:13:47.824748
- Title: The Power of Stories: Narrative Priming Shapes How LLM Agents Collaborate and Compete
- Title(参考訳): 物語の力: LLMエージェントのコラボボレートとコンピテント
- Authors: Gerrit Großmann, Larisa Ivanova, Sai Leela Poduru, Mohaddeseh Tabrizian, Islam Mesabah, David A. Selby, Sebastian J. Vollmer,
- Abstract要約: 私たちは、チームワークを異なる学位に強調するストーリーをメインエージェントとして、これが交渉の結果にどのように影響するかをテストします。
ストーリーベースのプライミングは交渉戦略や成功率に大きく影響している。
対照的に、異なるストーリーを持つプライミングエージェントは、この効果を逆転させ、これらのエージェントは、自己利益に向かって急上昇した。
- 参考スコア(独自算出の注目度): 0.549690036417587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: According to Yuval Noah Harari, large-scale human cooperation is driven by shared narratives that encode common beliefs and values. This study explores whether such narratives can similarly nudge LLM agents toward collaboration. We use a finitely repeated public goods game in which LLM agents choose either cooperative or egoistic spending strategies. We prime agents with stories highlighting teamwork to different degrees and test how this influences negotiation outcomes. Our experiments explore four questions:(1) How do narratives influence negotiation behavior? (2) What differs when agents share the same story versus different ones? (3) What happens when the agent numbers grow? (4) Are agents resilient against self-serving negotiators? We find that story-based priming significantly affects negotiation strategies and success rates. Common stories improve collaboration, benefiting each agent. By contrast, priming agents with different stories reverses this effect, and those agents primed toward self-interest prevail. We hypothesize that these results carry implications for multi-agent system design and AI alignment.
- Abstract(参考訳): ユバル・ノア・ハラリ(Yuval Noah Harari)によれば、大規模な人間の協力は共通の信念と価値観をエンコードする共有物語によって引き起こされる。
本研究では,このような物語がLLMエージェントを協調に活用できるかどうかを考察する。
我々は、LLMエージェントが協力的またはエゴスティックな支出戦略を選択するような、有限繰り返しの公共財ゲームを使用する。
私たちは、チームワークを異なる学位に強調するストーリーをメインエージェントとして、これが交渉の結果にどのように影響するかをテストします。
1) 物語は交渉行動にどのように影響を与えるのか?
2) エージェントが同じストーリーを異なるストーリーと共有する場合との違いは何か?
(3) エージェント数が増加するとどうなるか?
(4)自衛隊の交渉に抵抗性があるか?
ストーリーベースのプライミングは交渉戦略や成功率に大きく影響している。
共通のストーリーはコラボレーションを改善し、各エージェントに利益をもたらす。
対照的に、異なるストーリーを持つプライミングエージェントは、この効果を逆転させ、これらのエージェントは、自己利益に向かって急上昇した。
これらの結果は、マルチエージェントシステム設計とAIアライメントに影響を及ぼすと仮定する。
関連論文リスト
- Towards Enhanced Immersion and Agency for LLM-based Interactive Drama [55.770617779283064]
本論文は,対話型ドラマを2つの側面から理解することから始まる:没入感,プレイヤーの物語への参加感,エージェンシーである。
これら2つの側面を強化するために,我々はまず,LLMが劇的なストーリーを製作し,構造と物語の質を大幅に向上させる新しい手法であるPlaywriting-Guided Generationを提案する。
論文 参考訳(メタデータ) (2025-02-25T06:06:16Z) - I Want to Break Free! Persuasion and Anti-Social Behavior of LLMs in Multi-Agent Settings with Social Hierarchy [13.68625980741047]
本研究では,Large Language Model (LLM) に基づくエージェントの相互作用パターンについて,厳密な社会的階層を特徴とする文脈で検討する。
本研究では,警備員と囚人エージェントが関与するシミュレートシナリオにおける説得と反社会的行動の2つの現象について検討した。
論文 参考訳(メタデータ) (2024-10-09T17:45:47Z) - CompeteAI: Understanding the Competition Dynamics in Large Language Model-based Agents [43.46476421809271]
大規模言語モデル(LLM)は、様々なタスクを完了させるエージェントとして広く使われている。
本稿ではエージェント間の競合を研究するための一般的な枠組みを提案する。
そして、GPT-4を用いて仮想街をシミュレートする現実的な競争環境を構築する。
論文 参考訳(メタデータ) (2023-10-26T16:06:20Z) - Building Cooperative Embodied Agents Modularly with Large Language
Models [104.57849816689559]
本研究では, 分散制御, 生の知覚観察, コストのかかるコミュニケーション, 様々な実施環境下でインスタンス化された多目的タスクといった課題に対処する。
我々は,LLMの常識知識,推論能力,言語理解,テキスト生成能力を活用し,認知に触発されたモジュラーフレームワークにシームレスに組み込む。
C-WAH と TDW-MAT を用いた実験により, GPT-4 で駆動される CoELA が, 強い計画に基づく手法を超越し, 創発的な効果的なコミュニケーションを示すことを示した。
論文 参考訳(メタデータ) (2023-07-05T17:59:27Z) - Bandit Social Learning: Exploration under Myopic Behavior [54.767961587919075]
オンラインプラットフォーム上でのレビューによって動機付けられた社会学習のダイナミクスについて検討する。
エージェントはまとめて単純なマルチアームのバンディットプロトコルに従うが、各エージェントは探索を伴わずにミオプティカルに振る舞う。
このような振る舞いに対して,スターク学習の失敗を導出し,好意的な結果を提供する。
論文 参考訳(メタデータ) (2023-02-15T01:57:57Z) - Interactive Inverse Reinforcement Learning for Cooperative Games [7.257751371276486]
我々は、潜在的に最適でないパートナーと効果的に協力することを学ぶことができるAIエージェントを設計する問題について研究する。
この問題は、協調的な2エージェントのマルコフ決定プロセスとしてモデル化されている。
学習者の方針が遷移関数に有意な影響を及ぼす場合、報酬関数を効率的に学習できることが示される。
論文 参考訳(メタデータ) (2021-11-08T18:24:52Z) - Loss aversion fosters coordination among independent reinforcement
learners [0.0]
自立型自己学習エージェントにおける協調行動の出現を促進する要因について検討する。
我々は、独立した強化学習エージェントでゲームの2つのバージョンをモデル化する。
我々は,損失回避の導入が,その出現を加速させることで協調を促進することを実験的に証明した。
論文 参考訳(メタデータ) (2019-12-29T11:22:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。