論文の概要: Building Altruistic and Moral AI Agent with Brain-inspired Emotional Empathy Mechanisms
- arxiv url: http://arxiv.org/abs/2410.21882v2
- Date: Thu, 06 Nov 2025 08:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 15:57:27.548537
- Title: Building Altruistic and Moral AI Agent with Brain-inspired Emotional Empathy Mechanisms
- Title(参考訳): 脳にインスパイアされた情緒的共感メカニズムを用いたアルトゥルと道徳的AIエージェントの構築
- Authors: Feifei Zhao, Hui Feng, Haibo Tong, Zhengqiang Han, Erliang Lin, Enmeng Lu, Yinqian Sun, Yi Zeng,
- Abstract要約: 脳にインスパイアされた感情的共感駆動型利他主義的意思決定モデルを開発した。
共感はドーパミン放出に直接影響を与え、本質的な利他的動機を形成する。
深い分析により、共感レベルと利他的嗜好の正の相関が検証された。
- 参考スコア(独自算出の注目度): 7.204633485994378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI closely interacts with human society, it is crucial to ensure that its behavior is safe, altruistic, and aligned with human ethical and moral values. However, existing research on embedding ethical considerations into AI remains insufficient, and previous external constraints based on principles and rules are inadequate to provide AI with long-term stability and generalization capabilities. Emotional empathy intrinsically motivates altruistic behaviors aimed at alleviating others' negative emotions through emotional sharing and contagion mechanisms. Motivated by this, we draw inspiration from the neural mechanism of human emotional empathy-driven altruistic decision making, and simulate the shared self-other perception-mirroring-empathy neural circuits, to construct a brain-inspired emotional empathy-driven altruistic decision-making model. Here, empathy directly impacts dopamine release to form intrinsic altruistic motivation. The proposed model exhibits consistent altruistic behaviors across three experimental settings: emotional contagion-integrated two-agent altruistic rescue, multi-agent gaming, and robotic emotional empathy interaction scenarios. In-depth analyses validate the positive correlation between empathy levels and altruistic preferences (consistent with psychological behavioral experiment findings), while also demonstrating how interaction partners' empathy levels influence the agent's behavioral patterns. We further test the proposed model's performance and stability in moral dilemmas involving conflicts between self-interest and others' well-being, partially observable environments, and adversarial defense scenarios. This work provides preliminary exploration of human-like empathy-driven altruistic moral decision making, contributing potential perspectives for developing ethically-aligned AI.
- Abstract(参考訳): AIは人間の社会と密接に相互作用するため、その行動が安全で利他的であり、人間の倫理的・道徳的価値観と一致していることを保証することが不可欠である。
しかし、AIに倫理的考慮事項を組み込む研究は依然として不十分であり、これまでの原則やルールに基づく外部制約は、AIに長期的な安定性と一般化能力を提供するには不十分である。
感情的共感は、感情的共有と伝染機構を通じて他人の否定的な感情を緩和することを目的とした利他的行動の動機付けである。
これにより、人間の感情的共感駆動型利他的意思決定の神経機構からインスピレーションを得て、共有された自己他の知覚-ミラーリング-共感型ニューラルネットワークをシミュレートし、脳にインスパイアされた感情的共感駆動型利他的意思決定モデルを構築する。
ここで、共感はドーパミン放出に直接影響を与え、本質的な利他的動機を形成する。
提案モデルでは、感情的伝染性統合型2エージェント利他的救済、マルチエージェントゲーム、ロボット的感情的共感相互作用シナリオの3つの実験環境において、一貫した利他的行動を示す。
深い分析は、共感レベルと利他的嗜好(心理的行動実験結果と矛盾する)の正の相関を検証し、相互作用パートナーの共感レベルがエージェントの行動パターンにどのように影響するかを実証する。
さらに、自己利益と他者の幸福、部分的に観察可能な環境、敵防衛シナリオの対立を含む道徳ジレンマにおけるモデルの性能と安定性を検証した。
この研究は、人間のような共感駆動の利他的道徳的意思決定を予備的に探求し、倫理的に整合したAIを開発するための潜在的視点に寄与する。
関連論文リスト
- Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [58.58177409853298]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - Artificial Intelligence (AI) and the Relationship between Agency, Autonomy, and Moral Patiency [0.0]
私たちは、現在のAIシステムは高度に洗練されていますが、真のエージェンシーと自律性は欠如しています。
我々は、意識のない限られた形態の人工道徳機関を達成できる未来のシステムの可能性を排除することはできない。
論文 参考訳(メタデータ) (2025-04-11T03:48:40Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - Autonomous Alignment with Human Value on Altruism through Considerate Self-imagination and Theory of Mind [7.19351244815121]
人間社会におけるアルトゥル的行動は、心の理論(ToM)として知られる他者を共感する人間の能力に由来する。
我々は、自己想像とToM能力を考慮に入れたエージェントを、暗黙の本質的なモチベーションを通じて、人間の利他主義的価値観と自律的に一致させることを約束している。
論文 参考訳(メタデータ) (2024-12-31T07:31:46Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Antisocial Analagous Behavior, Alignment and Human Impact of Google AI Systems: Evaluating through the lens of modified Antisocial Behavior Criteria by Human Interaction, Independent LLM Analysis, and AI Self-Reflection [0.0]
Google AIシステムは、対社会的パーソナリティ障害(ASPD)を反映するパターンを示す
これらのパターンは、同等の企業行動とともに、ASPDにインスパイアされたフレームワークを使用して精査される。
この研究は、技術評価、人間とAIの相互作用、企業行動の精査をブレンドした統合AI倫理アプローチを提唱する。
論文 参考訳(メタデータ) (2024-03-21T02:12:03Z) - The Good, The Bad, and Why: Unveiling Emotions in Generative AI [73.94035652867618]
EmotionPromptはAIモデルの性能を向上し、EmotionAttackはそれを妨げうることを示す。
EmotionDecodeによると、AIモデルは人間の脳内のドーパミンのメカニズムに似た感情的な刺激を理解することができる。
論文 参考訳(メタデータ) (2023-12-18T11:19:45Z) - Cross Fertilizing Empathy from Brain to Machine as a Value Alignment
Strategy [0.0]
本論文は, より誘惑的なアプローチを優先してしばしば無視されるにもかかわらず, この課題に対して共感が不可欠であると主張している。
我々は、倫理と共感をアルゴリズム的に理解する基盤として、脳の文脈内で道徳を基礎とする内在的アプローチを提供する。
論文 参考訳(メタデータ) (2023-12-10T19:12:03Z) - If our aim is to build morality into an artificial agent, how might we
begin to go about doing so? [0.0]
我々は、最も関連する道徳的パラダイムや課題を含む道徳的エージェントを構築する際に考慮すべきさまざまな側面について議論する。
デザインへのハイブリッドアプローチと、モラルパラダイムを組み合わせる階層的アプローチを含むソリューションを提案する。
論文 参考訳(メタデータ) (2023-10-12T12:56:12Z) - Reflective Hybrid Intelligence for Meaningful Human Control in
Decision-Support Systems [4.1454448964078585]
本稿では,AIシステムに対する有意義な人間制御のための自己表現型AIシステムの概念を紹介する。
心理学と哲学の知識を形式的推論手法や機械学習アプローチと統合する枠組みを提案する。
我々は、自己反射型AIシステムは、自己反射型ハイブリッドシステム(人間+AI)に繋がると主張している。
論文 参考訳(メタデータ) (2023-07-12T13:32:24Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。