論文の概要: Doing the right thing for the right reason: Evaluating artificial moral
cognition by probing cost insensitivity
- arxiv url: http://arxiv.org/abs/2305.18269v1
- Date: Mon, 29 May 2023 17:41:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 13:42:50.127483
- Title: Doing the right thing for the right reason: Evaluating artificial moral
cognition by probing cost insensitivity
- Title(参考訳): 正しい理由のために正しいことをする:コスト不感度の探索による人工道徳的認知の評価
- Authors: Yiran Mao, Madeline G. Reinecke, Markus Kunesch, Edgar A.
Du\'e\~nez-Guzm\'an, Ramona Comanescu, Julia Haas, Joel Z. Leibo
- Abstract要約: 我々は道徳の1つの側面を考察する:正しい理由のために正しいことをする」
本稿では,人間にも適用可能な人工的道徳認知の行動に基づく分析を提案する。
- 参考スコア(独自算出の注目度): 4.9111925104694105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Is it possible to evaluate the moral cognition of complex artificial agents?
In this work, we take a look at one aspect of morality: `doing the right thing
for the right reasons.' We propose a behavior-based analysis of artificial
moral cognition which could also be applied to humans to facilitate
like-for-like comparison. Morally-motivated behavior should persist despite
mounting cost; by measuring an agent's sensitivity to this cost, we gain deeper
insight into underlying motivations. We apply this evaluation to a particular
set of deep reinforcement learning agents, trained by memory-based
meta-reinforcement learning. Our results indicate that agents trained with a
reward function that includes other-regarding preferences perform helping
behavior in a way that is less sensitive to increasing cost than agents trained
with more self-interested preferences.
- Abstract(参考訳): 複雑な人工エージェントの道徳的認知を評価することは可能か?
本書では道徳の1つの側面を考察する:「正しい理由のために正しいことをする」。
「人間にも応用できる人工的道徳認知の行動に基づく分析を提案。
このコストに対するエージェントの感度を測定することで、私たちは根本的な動機について深い洞察を得ることができます。
この評価を特定の深層強化学習エージェントに適用し,メモリベースのメタ強化学習により学習する。
以上の結果から,他者の嗜好を含む報酬関数を訓練したエージェントは,自尊心のある嗜好を訓練したエージェントよりもコストの上昇に敏感でない方法で支援行動を実行することが示唆された。
関連論文リスト
- Decoding moral judgement from text: a pilot study [0.0]
道徳的判断は、認知的・感情的な次元に関わる複雑な人間の反応である。
受動的脳-コンピュータインタフェースを用いたテキスト刺激による道徳的判断復号の実現可能性について検討する。
論文 参考訳(メタデータ) (2024-05-28T20:31:59Z) - Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards
and Ethical Behavior in the MACHIAVELLI Benchmark [61.43264961005614]
我々は、50万以上のリッチで多様なシナリオを含む134個のChoose-Your-Own-Adventureゲームのベンチマークを開発する。
我々は、エージェントの傾向をパワー・シーキングと評価し、不使用を生じさせ、倫理的違反を犯す。
以上の結果から,エージェントは有能かつ道徳的に行動できることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T17:59:03Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Moral reinforcement learning using actual causation [0.0]
エージェントが害の原因ではないという制約の下でポリシーを学習するオンライン強化学習手法を提案する。
これは、実際の因果関係の理論を用いて原因を定義し、その行動が望ましくない結果の実際の原因である場合、エージェントに責任を割り当てることによって達成される。
論文 参考訳(メタデータ) (2022-05-17T09:25:51Z) - Human-Like Navigation Behavior: A Statistical Evaluation Framework [0.0]
我々は,人工エージェントの挙動と人間プレイヤーの挙動を比較するために,非パラメトリック2サンプル仮説テストを構築した。
結果として得られる$p$-valueは、人間のような行動の無名な判断と一致しているだけでなく、類似性の尺度として使用できることを示す。
論文 参考訳(メタデータ) (2022-03-10T01:07:34Z) - What Would Jiminy Cricket Do? Towards Agents That Behave Morally [59.67116505855223]
テキストベースのアドベンチャーゲーム25の環境スイートであるJimy Cricketを紹介します。
あらゆる可能なゲーム状態に注釈を付けることで、ジミニー・クリケット環境は、報酬を最大化しながら、エージェントが道徳的に行動できるかどうかを確実に評価する。
広範囲な実験において, 人工的良心アプローチは, パフォーマンスを犠牲にすることなく, 道徳的行動にエージェントを向けることができることがわかった。
論文 参考訳(メタデータ) (2021-10-25T17:59:31Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z) - Reinforcement Learning Under Moral Uncertainty [13.761051314923634]
機械学習の野心的な目標は、倫理的に振る舞うエージェントを作ることだ。
倫理的エージェントは、特定の道徳理論の下で正しい行動に報いることによって訓練することができるが、道徳性の本質について広く意見の相違がある。
本稿では、競合するデシダラタの異なる点を実現するための2つのトレーニング手法を提案し、モラルの不確実性の下で行動するための単純な環境におけるエージェントを訓練する。
論文 参考訳(メタデータ) (2020-06-08T16:40:12Z) - Intrinsic Motivation for Encouraging Synergistic Behavior [55.10275467562764]
スパース・リワード・シナジスティック・タスクにおける強化学習の探索バイアスとしての本質的モチベーションの役割について検討した。
私たちのキーとなる考え方は、シナジスティックなタスクにおける本質的なモチベーションのための優れた指針は、エージェントが自分自身で行動している場合、達成できない方法で世界に影響を与える行動を取ることである。
論文 参考訳(メタデータ) (2020-02-12T19:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。