論文の概要: Building Altruistic and Moral AI Agent with Brain-inspired Affective Empathy Mechanisms
- arxiv url: http://arxiv.org/abs/2410.21882v1
- Date: Tue, 29 Oct 2024 09:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:50.940173
- Title: Building Altruistic and Moral AI Agent with Brain-inspired Affective Empathy Mechanisms
- Title(参考訳): 脳に触発された情緒的共感機構を用いたアルトゥルと道徳的AIエージェントの構築
- Authors: Feifei Zhao, Hui Feng, Haibo Tong, Zhengqiang Han, Enmeng Lu, Yinqian Sun, Yi Zeng,
- Abstract要約: 本稿では,人間のような情緒的共感機構を通じて,知的エージェントを自律的に駆動し,道徳的行動を取得することを目的とする。
道徳的実用主義の原理に基づいて、本質的な共感と外生的な自己タスク目標を統合する道徳的報酬関数を設計する。
- 参考スコア(独自算出の注目度): 7.3650155128839225
- License:
- Abstract: As AI closely interacts with human society, it is crucial to ensure that its decision-making is safe, altruistic, and aligned with human ethical and moral values. However, existing research on embedding ethical and moral considerations into AI remains insufficient, and previous external constraints based on principles and rules are inadequate to provide AI with long-term stability and generalization capabilities. In contrast, the intrinsic altruistic motivation based on empathy is more willing, spontaneous, and robust. Therefore, this paper is dedicated to autonomously driving intelligent agents to acquire morally behaviors through human-like affective empathy mechanisms. We draw inspiration from the neural mechanism of human brain's moral intuitive decision-making, and simulate the mirror neuron system to construct a brain-inspired affective empathy-driven altruistic decision-making model. Here, empathy directly impacts dopamine release to form intrinsic altruistic motivation. Based on the principle of moral utilitarianism, we design the moral reward function that integrates intrinsic empathy and extrinsic self-task goals. A comprehensive experimental scenario incorporating empathetic processes, personal objectives, and altruistic goals is developed. The proposed model enables the agent to make consistent moral decisions (prioritizing altruism) by balancing self-interest with the well-being of others. We further introduce inhibitory neurons to regulate different levels of empathy and verify the positive correlation between empathy levels and altruistic preferences, yielding conclusions consistent with findings from psychological behavioral experiments. This work provides a feasible solution for the development of ethical AI by leveraging the intrinsic human-like empathy mechanisms, and contributes to the harmonious coexistence between humans and AI.
- Abstract(参考訳): AIは人間の社会と密接に相互作用するため、その意思決定が安全で利他的であり、人間の倫理的・道徳的価値観と一致していることを保証することが不可欠である。
しかし、倫理的・道徳的な考察をAIに組み込む研究は依然として不十分であり、これまでの原則や規則に基づく外部制約は、AIに長期的な安定性と一般化能力を提供するには不十分である。
対照的に、共感に基づく本質的な利他的動機は、より有意で自発的で堅牢である。
そこで本稿は,人間のような情緒的共感機構を通じて,知的エージェントを自律的に駆動し,道徳的行動を取得することを目的とする。
我々は、人間の脳の道徳的直感的な意思決定の神経機構からインスピレーションを得て、ミラーニューロンシステムをシミュレートし、脳にインスパイアされた感情的共感駆動の利他的意思決定モデルを構築する。
ここで、共感はドーパミン放出に直接影響を与え、本質的な利他的動機を形成する。
道徳的実用主義の原理に基づいて、本質的な共感と外生的な自己タスク目標を統合する道徳的報酬関数を設計する。
共感過程、個人的目的、利他的目標を取り入れた総合的な実験シナリオを開発した。
提案したモデルにより、エージェントは他者の幸福と自己利益のバランスをとることによって、一貫した道徳的決定(利他主義の優先順位付け)を行うことができる。
さらに、抑制ニューロンを導入し、異なる共感レベルを調節し、共感レベルと利他的嗜好の正の相関を検証し、心理的行動実験の結果と一致する結論を得る。
この研究は、本質的な人間のような共感機構を利用して倫理的AIを開発するための実現可能なソリューションを提供し、人間とAIの調和した共存に寄与する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Antisocial Analagous Behavior, Alignment and Human Impact of Google AI Systems: Evaluating through the lens of modified Antisocial Behavior Criteria by Human Interaction, Independent LLM Analysis, and AI Self-Reflection [0.0]
Google AIシステムは、対社会的パーソナリティ障害(ASPD)を反映するパターンを示す
これらのパターンは、同等の企業行動とともに、ASPDにインスパイアされたフレームワークを使用して精査される。
この研究は、技術評価、人間とAIの相互作用、企業行動の精査をブレンドした統合AI倫理アプローチを提唱する。
論文 参考訳(メタデータ) (2024-03-21T02:12:03Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Cross Fertilizing Empathy from Brain to Machine as a Value Alignment
Strategy [0.0]
本論文は, より誘惑的なアプローチを優先してしばしば無視されるにもかかわらず, この課題に対して共感が不可欠であると主張している。
我々は、倫理と共感をアルゴリズム的に理解する基盤として、脳の文脈内で道徳を基礎とする内在的アプローチを提供する。
論文 参考訳(メタデータ) (2023-12-10T19:12:03Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - Reflective Hybrid Intelligence for Meaningful Human Control in
Decision-Support Systems [4.1454448964078585]
本稿では,AIシステムに対する有意義な人間制御のための自己表現型AIシステムの概念を紹介する。
心理学と哲学の知識を形式的推論手法や機械学習アプローチと統合する枠組みを提案する。
我々は、自己反射型AIシステムは、自己反射型ハイブリッドシステム(人間+AI)に繋がると主張している。
論文 参考訳(メタデータ) (2023-07-12T13:32:24Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。