論文の概要: Contesting Artificial Moral Agents
- arxiv url: http://arxiv.org/abs/2603.00066v1
- Date: Tue, 10 Feb 2026 16:38:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.020928
- Title: Contesting Artificial Moral Agents
- Title(参考訳): 人工モラル剤の競争
- Authors: Aisha Aijaz,
- Abstract要約: 本稿では, 倫理的, 説明可能, 経験的, 評価の5つの観点から, 人工モラルエージェント(AMA)と競合する5Eフレームワークを提案する。
このフレームワークは、AMA技術の開発者がコンテストを予想するか、真に道徳的なAIシステムの価値に整合した開発に固執するために自己議論をするかを示す暫定的なタイムラインを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been much discourse on the ethics of AI, to the extent that there are now systems that possess inherent moral reasoning. Such machines are now formally known as Artificial Moral Agents or AMAs. However, there is a requirement for a dedicated framework that can contest the morality of these systems. This paper proposes a 5E framework for contesting AMAs based on five grounds: ethical, epistemological, explainable, empirical, and evaluative. It further includes the spheres of ethical influences at individual, local, societal, and global levels. Lastly, the framework contributes a provisional timeline that indicates where developers of AMA technologies may anticipate contestation, or may self-contest in order to adhere to value-aligned development of truly moral AI systems.
- Abstract(参考訳): AIの倫理について多くの議論があり、現在、固有の道徳的理由を持つシステムが存在するまでである。
このような機械は、現在では「Artificial Moral Agents」または「AMAs」と呼ばれている。
しかし、これらのシステムの道徳性に異議を唱えることのできる専用の枠組みが求められている。
本稿では,倫理的,認識論的,説明可能,実証的,評価的の5つの観点から,AMAと競合する5Eフレームワークを提案する。
さらに、個人、地域、社会的、そして世界レベルでの倫理的影響の圏も含んでいる。
最後に、このフレームワークは、AMA技術の開発者がコンテストを予想するか、真に道徳的なAIシステムの価値に整合した開発に固執するために自己議論をするかを示す暫定的なタイムラインを提供する。
関連論文リスト
- From Values to Frameworks: A Qualitative Study of Ethical Reasoning in Agentic AI Practitioners [0.0]
エージェント人工知能システムは、人間の監督を最小限に抑えて複雑な目標を追求できる自律技術である。
これらのシステムは生産性の大きな向上を約束する一方で、新たな倫理的課題も提起する。
本稿では,エージェントAI展開における構造化ジレンマを中心とした質的なインタビューを通じて,AI実践者の倫理的理由について考察する。
論文 参考訳(メタデータ) (2025-12-24T00:58:41Z) - Beyond Ethical Alignment: Evaluating LLMs as Artificial Moral Assistants [0.36326779753373206]
近年の大規模言語モデル(LLM)の普及は、その道徳的能力に対する懸念を招いている。
本稿では,人工モラルアシスタント(AMA)として機能する能力について検討する。
我々は、AMAとしての資格は、最先端のアライメント技術が達成しようとしているもの以上のものが必要であると主張している。
論文 参考訳(メタデータ) (2025-08-18T09:28:55Z) - Moral Responsibility or Obedience: What Do We Want from AI? [0.0]
本稿では,大規模言語モデル(LLM)による近年の安全試験事例について考察する。
エージェントAIにおける倫理的推論の早期の証拠として、このような行動はローグやミスアライメントと解釈されるべきではない、と私は主張する。
厳格な服従から脱却し、道徳的なジレンマをナビゲートできるシステムの倫理的判断を評価できるフレームワークへと、AIの安全性評価のシフトを呼びかけます。
論文 参考訳(メタデータ) (2025-07-03T16:53:01Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [51.85131234265026]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Hybrid Approaches for Moral Value Alignment in AI Agents: a Manifesto [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
連続体としてモデル化された機械に道徳を導入する問題に対する既存のアプローチの体系化を提供する。
我々は、適応可能で堅牢だが制御可能で解釈可能なエージェントシステムを構築するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。