論文の概要: Building Altruistic and Moral AI Agent with Brain-inspired Affective Empathy Mechanisms
- arxiv url: http://arxiv.org/abs/2410.21882v1
- Date: Tue, 29 Oct 2024 09:19:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:40:50.940173
- Title: Building Altruistic and Moral AI Agent with Brain-inspired Affective Empathy Mechanisms
- Title(参考訳): 脳に触発された情緒的共感機構を用いたアルトゥルと道徳的AIエージェントの構築
- Authors: Feifei Zhao, Hui Feng, Haibo Tong, Zhengqiang Han, Enmeng Lu, Yinqian Sun, Yi Zeng,
- Abstract要約: 本稿では,人間のような情緒的共感機構を通じて,知的エージェントを自律的に駆動し,道徳的行動を取得することを目的とする。
道徳的実用主義の原理に基づいて、本質的な共感と外生的な自己タスク目標を統合する道徳的報酬関数を設計する。
- 参考スコア(独自算出の注目度): 7.3650155128839225
- License:
- Abstract: As AI closely interacts with human society, it is crucial to ensure that its decision-making is safe, altruistic, and aligned with human ethical and moral values. However, existing research on embedding ethical and moral considerations into AI remains insufficient, and previous external constraints based on principles and rules are inadequate to provide AI with long-term stability and generalization capabilities. In contrast, the intrinsic altruistic motivation based on empathy is more willing, spontaneous, and robust. Therefore, this paper is dedicated to autonomously driving intelligent agents to acquire morally behaviors through human-like affective empathy mechanisms. We draw inspiration from the neural mechanism of human brain's moral intuitive decision-making, and simulate the mirror neuron system to construct a brain-inspired affective empathy-driven altruistic decision-making model. Here, empathy directly impacts dopamine release to form intrinsic altruistic motivation. Based on the principle of moral utilitarianism, we design the moral reward function that integrates intrinsic empathy and extrinsic self-task goals. A comprehensive experimental scenario incorporating empathetic processes, personal objectives, and altruistic goals is developed. The proposed model enables the agent to make consistent moral decisions (prioritizing altruism) by balancing self-interest with the well-being of others. We further introduce inhibitory neurons to regulate different levels of empathy and verify the positive correlation between empathy levels and altruistic preferences, yielding conclusions consistent with findings from psychological behavioral experiments. This work provides a feasible solution for the development of ethical AI by leveraging the intrinsic human-like empathy mechanisms, and contributes to the harmonious coexistence between humans and AI.
- Abstract(参考訳): AIは人間の社会と密接に相互作用するため、その意思決定が安全で利他的であり、人間の倫理的・道徳的価値観と一致していることを保証することが不可欠である。
しかし、倫理的・道徳的な考察をAIに組み込む研究は依然として不十分であり、これまでの原則や規則に基づく外部制約は、AIに長期的な安定性と一般化能力を提供するには不十分である。
対照的に、共感に基づく本質的な利他的動機は、より有意で自発的で堅牢である。
そこで本稿は,人間のような情緒的共感機構を通じて,知的エージェントを自律的に駆動し,道徳的行動を取得することを目的とする。
我々は、人間の脳の道徳的直感的な意思決定の神経機構からインスピレーションを得て、ミラーニューロンシステムをシミュレートし、脳にインスパイアされた感情的共感駆動の利他的意思決定モデルを構築する。
ここで、共感はドーパミン放出に直接影響を与え、本質的な利他的動機を形成する。
道徳的実用主義の原理に基づいて、本質的な共感と外生的な自己タスク目標を統合する道徳的報酬関数を設計する。
共感過程、個人的目的、利他的目標を取り入れた総合的な実験シナリオを開発した。
提案したモデルにより、エージェントは他者の幸福と自己利益のバランスをとることによって、一貫した道徳的決定(利他主義の優先順位付け)を行うことができる。
さらに、抑制ニューロンを導入し、異なる共感レベルを調節し、共感レベルと利他的嗜好の正の相関を検証し、心理的行動実験の結果と一致する結論を得る。
この研究は、本質的な人間のような共感機構を利用して倫理的AIを開発するための実現可能なソリューションを提供し、人間とAIの調和した共存に寄与する。
関連論文リスト
- Autonomous Alignment with Human Value on Altruism through Considerate Self-imagination and Theory of Mind [7.19351244815121]
人間社会におけるアルトゥル的行動は、心の理論(ToM)として知られる他者を共感する人間の能力に由来する。
我々は、自己想像とToM能力を考慮に入れたエージェントを、暗黙の本質的なモチベーションを通じて、人間の利他主義的価値観と自律的に一致させることを約束している。
論文 参考訳(メタデータ) (2024-12-31T07:31:46Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Antisocial Analagous Behavior, Alignment and Human Impact of Google AI Systems: Evaluating through the lens of modified Antisocial Behavior Criteria by Human Interaction, Independent LLM Analysis, and AI Self-Reflection [0.0]
Google AIシステムは、対社会的パーソナリティ障害(ASPD)を反映するパターンを示す
これらのパターンは、同等の企業行動とともに、ASPDにインスパイアされたフレームワークを使用して精査される。
この研究は、技術評価、人間とAIの相互作用、企業行動の精査をブレンドした統合AI倫理アプローチを提唱する。
論文 参考訳(メタデータ) (2024-03-21T02:12:03Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Cross Fertilizing Empathy from Brain to Machine as a Value Alignment
Strategy [0.0]
本論文は, より誘惑的なアプローチを優先してしばしば無視されるにもかかわらず, この課題に対して共感が不可欠であると主張している。
我々は、倫理と共感をアルゴリズム的に理解する基盤として、脳の文脈内で道徳を基礎とする内在的アプローチを提供する。
論文 参考訳(メタデータ) (2023-12-10T19:12:03Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。