論文の概要: Value Engineering for Autonomous Agents
- arxiv url: http://arxiv.org/abs/2302.08759v1
- Date: Fri, 17 Feb 2023 08:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 15:32:45.805245
- Title: Value Engineering for Autonomous Agents
- Title(参考訳): 自律エージェントのための価値工学
- Authors: Nieves Montes, Nardine Osman, Carles Sierra, Marija Slavkovik
- Abstract要約: 従来のアプローチでは、値はエージェント推論の不可欠な構成要素ではなく、世界のいくつかの行動や状態に関連するラベルとして扱われていた。
道徳心理学と社会心理学を基盤とした新たなAMAパラダイムを提案する。
このタイプの規範的推論は、エージェントが規範の道徳的意味を理解することによって、自律的なエージェントに価値認識をもたらすと論じる。
- 参考スコア(独自算出の注目度): 3.6130723421895947
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Machine Ethics (ME) is concerned with the design of Artificial Moral Agents
(AMAs), i.e. autonomous agents capable of reasoning and behaving according to
moral values. Previous approaches have treated values as labels associated with
some actions or states of the world, rather than as integral components of
agent reasoning. It is also common to disregard that a value-guided agent
operates alongside other value-guided agents in an environment governed by
norms, thus omitting the social dimension of AMAs. In this blue sky paper, we
propose a new AMA paradigm grounded in moral and social psychology, where
values are instilled into agents as context-dependent goals. These goals
intricately connect values at individual levels to norms at a collective level
by evaluating the outcomes most incentivized by the norms in place. We argue
that this type of normative reasoning, where agents are endowed with an
understanding of norms' moral implications, leads to value-awareness in
autonomous agents. Additionally, this capability paves the way for agents to
align the norms enforced in their societies with respect to the human values
instilled in them, by complementing the value-based reasoning on norms with
agreement mechanisms to help agents collectively agree on the best set of norms
that suit their human values. Overall, our agent model goes beyond the
treatment of values as inert labels by connecting them to normative reasoning
and to the social functionalities needed to integrate value-aware agents into
our modern hybrid human-computer societies.
- Abstract(参考訳): 機械倫理(ME)は、AMA(Artificial Moral Agents)、すなわち、道徳的価値に応じて推論と行動が可能な自律エージェントの設計に関するものである。
以前のアプローチでは、値はエージェント推論の不可欠なコンポーネントとしてではなく、世界のいくつかのアクションや状態に関連するラベルとして扱われてきた。
価値誘導エージェントが、規範によって統治される環境において他の価値誘導エージェントと共に機能するため、AMAの社会的次元を省略することが一般的である。
本稿では,文脈依存的な目標として,価値をエージェントに注入する,道徳的・社会的心理学に基づく新しいAMAパラダイムを提案する。
これらのゴールは、個々のレベルの値と集団レベルでの規範を、最もインセンティブの高い結果を評価することによって、複雑に結びつける。
このタイプの規範的推論は、エージェントが規範の道徳的意味を理解することによって、自律的なエージェントに価値認識をもたらすと論じる。
さらに、この能力は、エージェントが人間価値に合致する最適な規範セットを集団で合意するのに役立つ合意機構と、その規範の価値に基づく推論を補完することで、エージェントが社会で実施される規範を、それらに埋め込まれた人間価値に関して一致させる方法となる。
全体として、当社のエージェントモデルは、規範的推論と価値認識エージェントを現代の人間-コンピュータ社会に統合するために必要な社会的機能とを結びつけることで、不活性なラベルとしての価値を扱います。
関連論文リスト
- Learning and Sustaining Shared Normative Systems via Bayesian Rule
Induction in Markov Games [2.307051163951559]
私たちは、組み込まれた人間の機関と柔軟に協力する学習エージェントを構築します。
共有規範を仮定することにより、新しく導入されたエージェントは、コンプライアンスと違反の観察から既存の人口の規範を推測することができる。
エージェントは規範に関する共通の知識をブートストラップできるため、このことは規範を広く定着させ、新しい参加者がこれらの規範を迅速に学習することを可能にする。
論文 参考訳(メタデータ) (2024-02-20T21:58:40Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Agent Alignment in Evolving Social Norms [65.45423591744434]
本稿では,エージェント進化とアライメントのための進化的フレームワークであるEvolutionaryAgentを提案する。
社会規範が継続的に進化する環境では、エージェントは現在の社会規範に適応し、生存と増殖の確率が高くなる。
進化的エージェントは、一般的なタスクにおいてその能力を維持しながら、進化する社会規範と徐々に整合できることを示す。
論文 参考訳(メタデータ) (2024-01-09T15:44:44Z) - Measuring Value Alignment [12.696227679697493]
本稿では,AIシステムと人的価値の整合性を定量化する新しいフォーマリズムを提案する。
このフォーマリズムを利用することで、AI開発者と倫理学者は、人間の価値と調和して動作するように、AIシステムを設計し、評価することができる。
論文 参考訳(メタデータ) (2023-12-23T12:30:06Z) - Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards
and Ethical Behavior in the MACHIAVELLI Benchmark [61.43264961005614]
我々は、50万以上のリッチで多様なシナリオを含む134個のChoose-Your-Own-Adventureゲームのベンチマークを開発する。
我々は、エージェントの傾向をパワー・シーキングと評価し、不使用を生じさせ、倫理的違反を犯す。
以上の結果から,エージェントは有能かつ道徳的に行動できることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T17:59:03Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - Socially Intelligent Genetic Agents for the Emergence of Explicit Norms [0.0]
我々は、規範違反の説明を提供し、推論するエージェントを開発することによって、明示的な規範の出現に対処する。
これらのエージェントは遺伝的アルゴリズムを用いてノルムを生成し、強化学習を行い、これらのノルムの価値を学習する。
説明を適用すれば,エージェントの結束性や目標満足度が向上する規範が導かれることがわかった。
論文 参考訳(メタデータ) (2022-08-07T18:48:48Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z) - Aligning to Social Norms and Values in Interactive Narratives [89.82264844526333]
我々は、インタラクティブな物語やテキストベースのゲームにおいて、社会的に有益な規範や価値観に沿って行動するエージェントを作成することに注力する。
我々は、特別な訓練を受けた言語モデルに存在する社会的コモンセンス知識を用いて、社会的に有益な値に整合した行動にのみ、その行動空間を文脈的に制限するGAALADエージェントを紹介した。
論文 参考訳(メタデータ) (2022-05-04T09:54:33Z) - Noe: Norms Emergence and Robustness Based on Emotions in Multiagent
Systems [0.0]
本稿では,モデリング感情が社会規範の出現と堅牢性に与える影響について,社会シミュレーション実験を通じて検討する。
標準満足度と違反の結果に対する感情的反応をエージェントが考慮できる能力は、規範遵守を促進する。
論文 参考訳(メタデータ) (2021-04-30T14:42:22Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。