論文の概要: Learning and Sustaining Shared Normative Systems via Bayesian Rule
Induction in Markov Games
- arxiv url: http://arxiv.org/abs/2402.13399v1
- Date: Tue, 20 Feb 2024 21:58:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 17:58:20.821686
- Title: Learning and Sustaining Shared Normative Systems via Bayesian Rule
Induction in Markov Games
- Title(参考訳): マルコフゲームにおけるベイズ規則誘導による共有規範システムの学習と維持
- Authors: Ninell Oldenburg and Tan Zhi-Xuan
- Abstract要約: 私たちは、組み込まれた人間の機関と柔軟に協力する学習エージェントを構築します。
共有規範を仮定することにより、新しく導入されたエージェントは、コンプライアンスと違反の観察から既存の人口の規範を推測することができる。
エージェントは規範に関する共通の知識をブートストラップできるため、このことは規範を広く定着させ、新しい参加者がこれらの規範を迅速に学習することを可能にする。
- 参考スコア(独自算出の注目度): 2.307051163951559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A universal feature of human societies is the adoption of systems of rules
and norms in the service of cooperative ends. How can we build learning agents
that do the same, so that they may flexibly cooperate with the human
institutions they are embedded in? We hypothesize that agents can achieve this
by assuming there exists a shared set of norms that most others comply with
while pursuing their individual desires, even if they do not know the exact
content of those norms. By assuming shared norms, a newly introduced agent can
infer the norms of an existing population from observations of compliance and
violation. Furthermore, groups of agents can converge to a shared set of norms,
even if they initially diverge in their beliefs about what the norms are. This
in turn enables the stability of the normative system: since agents can
bootstrap common knowledge of the norms, this leads the norms to be widely
adhered to, enabling new entrants to rapidly learn those norms. We formalize
this framework in the context of Markov games and demonstrate its operation in
a multi-agent environment via approximately Bayesian rule induction of
obligative and prohibitive norms. Using our approach, agents are able to
rapidly learn and sustain a variety of cooperative institutions, including
resource management norms and compensation for pro-social labor, promoting
collective welfare while still allowing agents to act in their own interests.
- Abstract(参考訳): 人間社会の普遍的な特徴は、協調的な目的のために規則と規範の体系を採用することである。
同じことをする学習エージェントをどうやって構築すれば、それらが組み込まれている人間の機関と柔軟に協力できるのか?
エージェントは、たとえそれらの規範の正確な内容が分かっていなくても、ほとんどの人が個々の欲求を追求しながら遵守する共通の規範が存在すると仮定して、これを達成できると仮定する。
共有規範を仮定することで、新しく導入されたエージェントは、コンプライアンスと違反の観察から既存の人口の基準を推測することができる。
さらに、エージェントのグループは、たとえ彼らが当初ノルムが何であるかについての信念に偏っているとしても、共有ノルムの集合に収束することができる。
エージェントは規範の共通知識をブートストラップできるので、このことは規範を広く定着させ、新しい参加者がこれらの規範を迅速に学習することを可能にする。
我々はこのフレームワークをマルコフゲームの文脈で定式化し,多エージェント環境におけるその動作を,義務的および禁止的ノルムのベイズ則帰納法を用いて実証する。
本手法により, エージェントは, 資源管理規範や社会福祉の補償など, 様々な協力機関を迅速に学び, 維持することができ, エージェントが自身の利益を享受しながら, 集団福祉を促進することができる。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Agent Alignment in Evolving Social Norms [65.45423591744434]
本稿では,エージェント進化とアライメントのための進化的フレームワークであるEvolutionaryAgentを提案する。
社会規範が継続的に進化する環境では、エージェントは現在の社会規範に適応し、生存と増殖の確率が高くなる。
進化的エージェントは、一般的なタスクにおいてその能力を維持しながら、進化する社会規範と徐々に整合できることを示す。
論文 参考訳(メタデータ) (2024-01-09T15:44:44Z) - Value Engineering for Autonomous Agents [3.6130723421895947]
従来のアプローチでは、値はエージェント推論の不可欠な構成要素ではなく、世界のいくつかの行動や状態に関連するラベルとして扱われていた。
道徳心理学と社会心理学を基盤とした新たなAMAパラダイムを提案する。
このタイプの規範的推論は、エージェントが規範の道徳的意味を理解することによって、自律的なエージェントに価値認識をもたらすと論じる。
論文 参考訳(メタデータ) (2023-02-17T08:52:15Z) - NormSAGE: Multi-Lingual Multi-Cultural Norm Discovery from Conversations
On-the-Fly [61.77957329364812]
本稿では,対話型多言語・多文化規範発見の新たな課題に対処する枠組みを提案する。
NormSAGEはノルム発見タスクと会話コンテキストを表す有向質問を通じてノルムに関する知識を導き出す。
さらに、発見される規範が正しいことを保証する自己検証メカニズムにより、言語モデル幻覚のリスクに対処する。
論文 参考訳(メタデータ) (2022-10-16T18:30:05Z) - Socially Intelligent Genetic Agents for the Emergence of Explicit Norms [0.0]
我々は、規範違反の説明を提供し、推論するエージェントを開発することによって、明示的な規範の出現に対処する。
これらのエージェントは遺伝的アルゴリズムを用いてノルムを生成し、強化学習を行い、これらのノルムの価値を学習する。
説明を適用すれば,エージェントの結束性や目標満足度が向上する規範が導かれることがわかった。
論文 参考訳(メタデータ) (2022-08-07T18:48:48Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Interpretable Reinforcement Learning with Multilevel Subgoal Discovery [77.34726150561087]
離散環境のための新しい強化学習モデルを提案する。
モデルでは、エージェントは確率的ルールの形で環境に関する情報を学習する。
学習には報酬関数は不要であり、エージェントは達成するための第一の目標のみを与える必要がある。
論文 参考訳(メタデータ) (2022-02-15T14:04:44Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - Norm Identification through Plan Recognition [22.387008072671005]
社会的なルールは、マルチエージェント社会に行動的安定性の度合いを提供することを目的としている。
規範的システムの多くの実装は、以下の仮定の様々な組み合わせを仮定する。
解析に基づく計画認識と階層型タスクネットワーク(HTN)計画機構を組み合わせたノルム識別機構を開発する。
論文 参考訳(メタデータ) (2020-10-06T11:18:52Z) - A Norm Emergence Framework for Normative MAS -- Position Paper [0.90238471756546]
本稿では,規範的マルチエージェントシステムにおける規範の出現のための枠組みを提案する。
同様に、エージェントのパーセンテージがノルムを採用すると、ノルムがノルムMASに出現する。
我々は、規範的MAS内での規範の出現のための枠組みを提唱し、特殊目的シンセサイザーエージェントは、これらの要求に応じて新しい規範や修正を定式化する。
論文 参考訳(メタデータ) (2020-04-06T11:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。