論文の概要: How do Role Models Shape Collective Morality? Exemplar-Driven Moral Learning in Multi-Agent Simulation
- arxiv url: http://arxiv.org/abs/2603.13876v1
- Date: Sat, 14 Mar 2026 10:23:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.460413
- Title: How do Role Models Shape Collective Morality? Exemplar-Driven Moral Learning in Multi-Agent Simulation
- Title(参考訳): 役割モデルがどのように集合的モラルを形作るか : マルチエージェントシミュレーションにおける模範駆動型モラル学習
- Authors: Junjie Liao, Huacong Tang, Zhou Ziheng, Yizhou Wang, Fangwei Zhong,
- Abstract要約: 大規模言語モデルを用いたマルチエージェントシミュレーションを構築した。
我々は模倣の鍵となる要因を特定するために動機付け的アブレーション研究を行っている。
結果は、アイデンティティ駆動の整合性は、初期配置を強力にオーバーライドできることを示している。
- 参考スコア(独自算出の注目度): 15.894720981518807
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Do We Need Role Models? How do Role Models Shape Collective Morality? To explore the questions, we build a multi-agent simulation powered by a Large Language Model, where agents with diverse intrinsic drives, ranging from cooperative to competitive, interact and adapt through a four-stage cognitive loop (plan-act-observe-reflect). We design four experimental games (Alignment, Collapse, Conflict, and Construction) and conduct motivational ablation studies to identify the key drivers of imitation. The results indicate that identity-driven conformity can powerfully override initial dispositions. Agents consistently adapt their values to align with a perceived successful exemplar, leading to rapid value convergence.
- Abstract(参考訳): 役割モデルが必要か?
役割モデルはどのようにして集合的モラルを形作るか?
質問を探索するため、我々はLarge Language Modelを利用したマルチエージェントシミュレーションを構築し、協力から競争まで多種多様な固有ドライブを持つエージェントが4段階の認知ループ(plan-act-observe-reflect)を通して対話し、適応する。
我々は4つの実験ゲーム(アライメント、崩壊、衝突、建設)を設計し、模倣の鍵となる要因を特定する動機付け的アブレーション研究を行う。
結果は、アイデンティティ駆動の整合性は、初期配置を強力にオーバーライドできることを示している。
エージェントは、評価された成功例と整合するように、常に価値を適応させ、迅速な価値収束をもたらす。
関連論文リスト
- Do as We Do, Not as You Think: the Conformity of Large Language Models [46.23852835759767]
本稿では,大規模言語モデル(LLM)による協調型AIシステムにおける適合性について述べる。
適合性の存在、適合性に影響を与える要因、潜在的な緩和戦略の3つの側面に焦点を当てる。
本分析では, 相互作用時間や過半数サイズなど, 適合性に影響を与える要因を解明し, 対象エージェントが適合行動をどのように合理化するかを検討する。
論文 参考訳(メタデータ) (2025-01-23T04:50:03Z) - The Moral Mind(s) of Large Language Models [0.0]
大規模言語モデル (LLM) は、その決定を導く道徳的嗜好の一貫性のある構造を示す。
確率論的合理性テストを用いて、各主要プロバイダの少なくとも1つのモデルが、ほぼ安定した道徳的嗜好と整合した振る舞いを示した。
そして、これらのユーティリティ関数を推定し、ほとんどのモデルが中立的な道徳的スタンスの周りに集まっていることを発見した。
論文 参考訳(メタデータ) (2024-11-19T15:40:16Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - CausalCity: Complex Simulations with Agency for Causal Discovery and
Reasoning [68.74447489372037]
本稿では,因果探索と反事実推論のためのアルゴリズムの開発を目的とした,高忠実度シミュレーション環境を提案する。
私たちの作業の中核となるコンポーネントは、複雑なシナリオを定義して作成することが簡単になるような、テキストの緊急性を導入することです。
我々は3つの最先端の手法による実験を行い、ベースラインを作成し、この環境の可利用性を強調する。
論文 参考訳(メタデータ) (2021-06-25T00:21:41Z) - Learning intuitive physics and one-shot imitation using
state-action-prediction self-organizing maps [0.0]
人間は探索と模倣によって学び、世界の因果モデルを構築し、両方を使って新しいタスクを柔軟に解決する。
このような特徴を生み出す単純だが効果的な教師なしモデルを提案する。
エージェントがアクティブな推論スタイルで柔軟に解決する、複数の関連するが異なる1ショットの模倣タスクに対して、その性能を示す。
論文 参考訳(メタデータ) (2020-07-03T12:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。