論文の概要: A Human-centric Framework for Debating the Ethics of AI Consciousness Under Uncertainty
- arxiv url: http://arxiv.org/abs/2512.02544v1
- Date: Tue, 02 Dec 2025 09:15:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.79752
- Title: A Human-centric Framework for Debating the Ethics of AI Consciousness Under Uncertainty
- Title(参考訳): 不確実性の下でAIの倫理を議論する人間中心のフレームワーク
- Authors: Zhou Ziheng, Haiqiang Dai, Bin Ling, Ying Nian Wu, Demetri Terzopoulos,
- Abstract要約: 本稿では,哲学的不確実性に基づく構造的3段階の枠組みを提案する。
我々は、私たちのメタ倫理的スタンスとして、AI意識に関する5つの事実的判断を、人間中心主義と共に確立する。
我々のアプローチは哲学的な厳密さと実践的な指導のバランスを取り、意識と人間同型を区別し、責任ある進化の経路を作る。
- 参考スコア(独自算出の注目度): 35.478378726992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As AI systems become increasingly sophisticated, questions about machine consciousness and its ethical implications have moved from fringe speculation to mainstream academic debate. Current ethical frameworks in this domain often implicitly rely on contested functionalist assumptions, prioritize speculative AI welfare over concrete human interests, and lack coherent theoretical foundations. We address these limitations through a structured three-level framework grounded in philosophical uncertainty. At the foundational level, we establish five factual determinations about AI consciousness alongside human-centralism as our meta-ethical stance. These foundations logically entail three operational principles: presumption of no consciousness (placing the burden of proof on consciousness claims), risk prudence (prioritizing human welfare under uncertainty), and transparent reasoning (enabling systematic evaluation and adaptation). At the application level, the third component of our framework, we derive default positions on pressing ethical questions through a transparent logical process where each position can be explicitly traced back to our foundational commitments. Our approach balances philosophical rigor with practical guidance, distinguishes consciousness from anthropomorphism, and creates pathways for responsible evolution as scientific understanding advances, providing a human-centric foundation for navigating these profound ethical challenges.
- Abstract(参考訳): AIシステムがますます高度化するにつれて、機械意識とその倫理的意味に関する疑問は、投機的投機から主流の学術的議論へと移ってきた。
この領域の現在の倫理的枠組みは、しばしば暗黙的に競合する機能主義者の仮定に依存し、具体的な人間の利益よりも投機的AIの福祉を優先し、一貫性のある理論基盤を欠いている。
哲学的不確実性に根ざした3段階の構造的枠組みを通じて,これらの制約に対処する。
基本レベルでは、私たちのメタ倫理的スタンスとして、人間中心主義と並んで、AI意識に関する5つの事実的判断を確立します。
これらの基礎には、無意識の前提(意識的主張の証明の負担を軽減)、リスク・プルーデンス(不確実性の下での人間の福祉を優先)、透明な推論(体系的評価と適応の促進)の3つの運用原則が論理的に包含されている。
アプリケーションレベルでは、私たちのフレームワークの第3のコンポーネントである、それぞれのポジションを基本的コミットメントに明示的に遡ることができる透明な論理的プロセスを通じて倫理的質問をプッシュするデフォルトのポジションを導出します。
我々のアプローチは、哲学的な厳密さと実践的な指導のバランスを取り、意識と人間同型を区別し、科学的理解が進むにつれて責任ある進化の経路を作り、これらの深い倫理的課題をナビゲートするための人間中心の基盤を提供する。
関連論文リスト
- AI Deception: Risks, Dynamics, and Controls [149.20033748212012]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - Perfect AI Mimicry and the Epistemology of Consciousness: A Solipsistic Dilemma [2.5672176409865677]
人工知能の進歩は、私たちが意識とみなす基礎を再検討する必要がある。
AIシステムは、人間の振る舞いと高い忠実さとの相互作用をますます模倣するので、「完璧な模倣」という概念は、仮説から技術的に実証可能な人間のシフトと経験的に区別できない存在である。
本稿では,このような発達が心認識の実践の整合性に根本的な課題をもたらすことを論じる。
論文 参考訳(メタデータ) (2025-10-06T08:44:55Z) - The Principles of Human-like Conscious Machine [6.159611238789419]
本稿では, 異常意識に対する基質非依存, 論理的厳密, 偽装抵抗性満足度基準を提案する。
我々は、この基準を満たす機械は、意識を他の人間に当てはめる少なくとも同じレベルの信頼をもって意識とみなすべきであると論じている。
この枠組みとその原理を満たす機械として、人間自身を捉えることができることを示す。
論文 参考訳(メタデータ) (2025-09-21T01:11:30Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - The AI Ethical Resonance Hypothesis: The Possibility of Discovering Moral Meta-Patterns in AI Systems [0.0]
この論文は、人間の心に見えない微妙な道徳的パターンを識別する能力によって、高度なAIシステムが出現する可能性を示唆している。
この論文は、大量の倫理的文脈を処理し、合成することによって、AIシステムは文化的、歴史的、個人的バイアスを超越する道徳的メタパターンを発見する可能性を探求する。
論文 参考訳(メタデータ) (2025-07-13T08:28:06Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。