論文の概要: Alignment Is Not Enough: A Relational Framework for Moral Standing in Human-AI Interaction
- arxiv url: http://arxiv.org/abs/2603.00078v1
- Date: Fri, 13 Feb 2026 03:16:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 01:20:08.031583
- Title: Alignment Is Not Enough: A Relational Framework for Moral Standing in Human-AI Interaction
- Title(参考訳): アライメントは十分ではない:人間とAIのインタラクションにおけるモラルスタンディングのための関係フレームワーク
- Authors: Faezeh B. Pasandi, Hannah B. Pasandi,
- Abstract要約: 人工知能の倫理的配慮がAI研究における決定的な倫理的課題の1つになってきたかどうかという問題である。
RelateはAIの道徳的忍耐を、オントロジ的な検証からリレーショナルキャパシティとインボデードインタラクションへと再編成するフレームワークである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The question of whether artificial entities deserve moral consideration has become one of the defining ethical challenges of AI research. Existing frameworks for moral patiency rely on verified ontological properties, such as sentience, phenomenal consciousness, or the capacity for suffering, that remain epistemically inaccessible in computational systems. This reliance creates a governance vacuum: millions of users form sustained affective bonds with conversational AI, yet no regulatory instrument distinguishes these interactions from transactional tool use. We introduce Relate (Relational Ethics for Leveled Assessment of Technological Entities), a framework that reframes AI moral patiency from ontological verification toward relational capacity and embodied interaction. Through a systematic comparison of seven governance frameworks, we demonstrate that current trustworthy AI instruments treat all human-AI encounters identically as tool use, ignoring the relational and embodied dynamics that posthumanist scholarship anticipated. We propose relational impact assessments, graduated moral consideration protocols, and interdisciplinary ethics integration as concrete instruments, and we include a sample Relational Impact Assessment applied to a deployed companion AI system. We do not claim current AI systems are conscious. We demonstrate that the ethical vocabularies governing them are inadequate to the embodied, relational realities these systems produce.
- Abstract(参考訳): 人工知能が倫理的考慮に値するかどうかという問題は、AI研究における決定的な倫理的課題の1つになっている。
既存の道徳的忍耐の枠組みは、知性、現象意識、苦しみの能力など、計算システムでは認識不能な存在論的性質に依存している。
数百万のユーザが会話型AIと持続的な感情結合を形成していますが、これらのインタラクションをトランザクションツールの使用と区別する規制手段はありません。
リレーショナル倫理(Relational Ethics for Leveled Assessment of Technological Entities)は,AIの道徳的忍耐性を,関係能力や具体的相互作用に対する存在論的検証から再構築するフレームワークである。
7つのガバナンスフレームワークを体系的に比較することにより、現在の信頼できるAI機器が、ツール使用と同一の人間とAIの遭遇を処理し、ポストヒューマニストの奨学金が予想していたリレーショナルおよび具体的ダイナミクスを無視していることを示す。
本稿では, 関係的影響評価, 累進的道徳的考察プロトコル, 学際的倫理統合を具体的機器として提案し, デプロイされた協調AIシステムに適用した関係的影響評価のサンプルを含める。
現在のAIシステムは意識的ではない、と私たちは主張する。
それらを管理する倫理的語彙は、これらのシステムが生み出す具体的・関係的な現実に不十分であることを示す。
関連論文リスト
- Ethical AI: Towards Defining a Collective Evaluation Framework [0.3413711585591077]
人工知能(AI)は医療、金融、自律システムといった分野を変えつつある。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
本稿では,意味不明で解釈可能な単位のオントロジブロック上に構築されたモジュール型倫理的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T21:10:47Z) - Artificial Intelligence (AI) and the Relationship between Agency, Autonomy, and Moral Patiency [0.0]
私たちは、現在のAIシステムは高度に洗練されていますが、真のエージェンシーと自律性は欠如しています。
我々は、意識のない限られた形態の人工道徳機関を達成できる未来のシステムの可能性を排除することはできない。
論文 参考訳(メタデータ) (2025-04-11T03:48:40Z) - Deontic Temporal Logic for Formal Verification of AI Ethics [4.028503203417233]
本稿では,AIシステムの倫理的行動を定義し評価するために,デオン論理に基づく形式化を提案する。
公理と定理を導入し、公正性と説明可能性に関する倫理的要件を捉えている。
筆者らは,実世界のCompASとローン予測AIシステムの倫理性を評価することにより,この形式化の有効性を評価する。
論文 参考訳(メタデータ) (2025-01-10T07:48:40Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [51.85131234265026]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。