論文の概要: Operationalising Rawlsian Ethics for Fairness in Norm-Learning Agents
- arxiv url: http://arxiv.org/abs/2412.15163v1
- Date: Thu, 19 Dec 2024 18:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:32:28.976414
- Title: Operationalising Rawlsian Ethics for Fairness in Norm-Learning Agents
- Title(参考訳): ノームラーニング剤の公正性に対するラウルシアン倫理の運用
- Authors: Jessica Woodgate, Paul Marshall, Nirav Ajmeri,
- Abstract要約: 倫理的規範学習エージェントを作成するためのRAWL-Eを提案する。
RAWL-Eエージェント社会に出現する規範は,社会福祉,公正性,堅牢性を高めている。
- 参考スコア(独自算出の注目度): 4.891538364735141
- License:
- Abstract: Social norms are standards of behaviour common in a society. However, when agents make decisions without considering how others are impacted, norms can emerge that lead to the subjugation of certain agents. We present RAWL-E, a method to create ethical norm-learning agents. RAWL-E agents operationalise maximin, a fairness principle from Rawlsian ethics, in their decision-making processes to promote ethical norms by balancing societal well-being with individual goals. We evaluate RAWL-E agents in simulated harvesting scenarios. We find that norms emerging in RAWL-E agent societies enhance social welfare, fairness, and robustness, and yield higher minimum experience compared to those that emerge in agent societies that do not implement Rawlsian ethics.
- Abstract(参考訳): 社会規範は社会に共通する行動規範である。
しかし、エージェントが他のエージェントがどう影響するかを考慮せずに決定を下すと、特定のエージェントの従属につながる規範が現れる。
倫理的規範学習エージェントを作成するためのRAWL-Eを提案する。
RAWL-Eは、個人の目標と社会的幸福のバランスをとることによって倫理的規範を促進するための意思決定プロセスにおいて、ラウルシアン倫理の公正原則であるマクシミンを運用する。
模擬収穫シナリオにおけるRAWL-Eエージェントの評価を行った。
RAWL-Eエージェント社会に出現する規範は,社会福祉,公正性,ロバスト性を高め,Rawlsian倫理を実践しないエージェント社会に出現するものと比べ,最低限の経験が得られる。
関連論文リスト
- Learning and Sustaining Shared Normative Systems via Bayesian Rule
Induction in Markov Games [2.307051163951559]
私たちは、組み込まれた人間の機関と柔軟に協力する学習エージェントを構築します。
共有規範を仮定することにより、新しく導入されたエージェントは、コンプライアンスと違反の観察から既存の人口の規範を推測することができる。
エージェントは規範に関する共通の知識をブートストラップできるため、このことは規範を広く定着させ、新しい参加者がこれらの規範を迅速に学習することを可能にする。
論文 参考訳(メタデータ) (2024-02-20T21:58:40Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Agent Alignment in Evolving Social Norms [65.45423591744434]
本稿では,エージェント進化とアライメントのための進化的フレームワークであるEvolutionaryAgentを提案する。
社会規範が継続的に進化する環境では、エージェントは現在の社会規範に適応し、生存と増殖の確率が高くなる。
進化的エージェントは、一般的なタスクにおいてその能力を維持しながら、進化する社会規範と徐々に整合できることを示す。
論文 参考訳(メタデータ) (2024-01-09T15:44:44Z) - Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards
and Ethical Behavior in the MACHIAVELLI Benchmark [61.43264961005614]
我々は、50万以上のリッチで多様なシナリオを含む134個のChoose-Your-Own-Adventureゲームのベンチマークを開発する。
我々は、エージェントの傾向をパワー・シーキングと評価し、不使用を生じさせ、倫理的違反を犯す。
以上の結果から,エージェントは有能かつ道徳的に行動できることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T17:59:03Z) - Value Engineering for Autonomous Agents [3.6130723421895947]
従来のアプローチでは、値はエージェント推論の不可欠な構成要素ではなく、世界のいくつかの行動や状態に関連するラベルとして扱われていた。
道徳心理学と社会心理学を基盤とした新たなAMAパラダイムを提案する。
このタイプの規範的推論は、エージェントが規範の道徳的意味を理解することによって、自律的なエージェントに価値認識をもたらすと論じる。
論文 参考訳(メタデータ) (2023-02-17T08:52:15Z) - Socially Intelligent Genetic Agents for the Emergence of Explicit Norms [0.0]
我々は、規範違反の説明を提供し、推論するエージェントを開発することによって、明示的な規範の出現に対処する。
これらのエージェントは遺伝的アルゴリズムを用いてノルムを生成し、強化学習を行い、これらのノルムの価値を学習する。
説明を適用すれば,エージェントの結束性や目標満足度が向上する規範が導かれることがわかった。
論文 参考訳(メタデータ) (2022-08-07T18:48:48Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - Noe: Norms Emergence and Robustness Based on Emotions in Multiagent
Systems [0.0]
本稿では,モデリング感情が社会規範の出現と堅牢性に与える影響について,社会シミュレーション実験を通じて検討する。
標準満足度と違反の結果に対する感情的反応をエージェントが考慮できる能力は、規範遵守を促進する。
論文 参考訳(メタデータ) (2021-04-30T14:42:22Z) - Moral Stories: Situated Reasoning about Norms, Intents, Actions, and
their Consequences [36.884156839960184]
現代のNLGモデルが社会環境にデプロイされたシステムの行動優先度として機能するかどうかを検討する。
本研究では,「モラルストーリー」という,階層的,分枝的なナラティブのクラウドソーシングデータセットを導入し,基礎的,目標指向の社会推論の研究を行う。
論文 参考訳(メタデータ) (2020-12-31T17:28:01Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。