論文の概要: Value-Based Rationales Improve Social Experience: A Multiagent Simulation Study
- arxiv url: http://arxiv.org/abs/2408.02117v2
- Date: Wed, 14 Aug 2024 15:25:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-15 15:28:26.628768
- Title: Value-Based Rationales Improve Social Experience: A Multiagent Simulation Study
- Title(参考訳): 価値に基づく合理化は社会体験を改善する:マルチエージェントシミュレーションによる研究
- Authors: Sz-Ting Tzeng, Nirav Ajmeri, Munindar P. Singh,
- Abstract要約: 意思決定に価値を取り入れたエージェントを実現するためのフレームワークであるExannaを提案する。
Exannaagentは、行動に対する合理性を提供し、他者が提供する合理性を評価する際に、自分自身と他者の価値を考える。
- 参考スコア(独自算出の注目度): 13.627536649679577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Exanna, a framework to realize agents that incorporate values in decision making. An Exannaagent considers the values of itself and others when providing rationales for its actions and evaluating the rationales provided by others. Via multiagent simulation, we demonstrate that considering values in decision making and producing rationales, especially for norm-deviating actions, leads to (1) higher conflict resolution, (2) better social experience, (3) higher privacy, and (4) higher flexibility.
- Abstract(参考訳): 意思決定に価値を取り入れたエージェントを実現するためのフレームワークであるExannaを提案する。
Exannaagentは、行動に対する合理性を提供し、他者が提供する合理性を評価する際に、自分自身と他者の価値を考える。
マルチエージェント・シミュレーションにより,意思決定や合理性,特に規範決定行動においては,(1)紛争解決度の向上,(2)社会経験の向上,(3)プライバシーの向上,(4)柔軟性の向上が示される。
関連論文リスト
- SocialGFs: Learning Social Gradient Fields for Multi-Agent Reinforcement Learning [58.84311336011451]
マルチエージェント強化学習のための新しい勾配に基づく状態表現を提案する。
オフラインサンプルからソーシャルグラデーションフィールド(SocialGF)を学習するために,デノジングスコアマッチングを採用している。
実際に、SocialGFをMAPPOなど、広く使われているマルチエージェント強化学習アルゴリズムに統合する。
論文 参考訳(メタデータ) (2024-05-03T04:12:19Z) - Norm Enforcement with a Soft Touch: Faster Emergence, Happier Agents [15.315985512420568]
マルチエージェントシステム(マルチエージェントシステム、英: multiagent system)は、社会的規範によって相互作用を規制できる自律的なエージェントの社会である。
我々は、エージェントが他のエージェントの満足感や満足感に欠ける行動に対して、これらの反応を、第1のエージェントから第2のエージェントへの通信として考える。
我々は,これまでよりも幅広いコミュニケーションと理解を通じて,ソーシャルインテリジェンスをモデル化するフレームワークであるNestを開発した。
論文 参考訳(メタデータ) (2024-01-29T11:09:45Z) - Innate-Values-driven Reinforcement Learning for Cooperative Multi-Agent
Systems [1.8220718426493654]
本来の価値はエージェントの本質的なモチベーションを表しており、それはエージェントの本来の関心や目標を追求する好みを反映している。
強化学習(RL)の本質は、報酬駆動(ユーティリティなど)の振る舞いに基づく相互作用から学ぶことである。
本稿では,多エージェント相互作用の複雑な振る舞いを記述するために,階層型複合値強化学習モデル(本質的強化学習)を提案する。
論文 参考訳(メタデータ) (2024-01-10T22:51:10Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - CAMMARL: Conformal Action Modeling in Multi Agent Reinforcement Learning [5.865719902445064]
本稿では,新しいマルチエージェント強化学習アルゴリズムCAMMARLを提案する。
それは、異なる状況における他のエージェントのアクションを、自信集合の形でモデル化することを含む。
本稿では,CAMMARLが共形予測セットをモデル化することにより,MARLにおける自律エージェントの能力を高めることを示す。
論文 参考訳(メタデータ) (2023-06-19T19:03:53Z) - Influencing Long-Term Behavior in Multiagent Reinforcement Learning [59.98329270954098]
時間的アプローチが無限に近づくと、他のエージェントの制限ポリシーを考えるための原則的枠組みを提案する。
具体的には、各エージェントの行動が他のエージェントが行うポリシーの制限セットに与える影響を直接考慮し、各エージェントの平均報酬を最大化する新しい最適化目標を開発する。
我々の遠視評価により、様々な領域における最先端のベースラインよりも長期的性能が向上した。
論文 参考訳(メタデータ) (2022-03-07T17:32:35Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z) - Alternative Microfoundations for Strategic Classification [33.67797984699066]
完全な情報を持つ合理的なエージェントは、決定規則に対する集合的応答において不連続を生じさせることを示す。
標準的なマイクロファウンデーションの下での最適決定ルールは、社会的負担として知られる負の外部性の尺度を最大化する。
我々のモデルは、分析的トラクタビリティを保持し、安定点に関するより堅牢な洞察をもたらし、最適性において社会的負担を低くする。
論文 参考訳(メタデータ) (2021-06-24T00:30:58Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z) - A mechanism of Individualistic Indirect Reciprocity with internal and
external dynamics [0.0]
本研究は,エージェントの態度に着目した Nowak モデルと Sigmund モデルの新しい変種を提案する。
エージェントベースモデルとデータサイエンス手法を用いて,エージェントの識別的スタンスがほとんどの場合優位であることを示す。
また, 他者の評判が不明な場合には, 不均一性が高く, 協力需要が高い場合には, 異種社会が得られることも示唆した。
論文 参考訳(メタデータ) (2021-05-28T23:28:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。