論文の概要: Informed Consent for AI Consciousness Research: A Talmudic Framework for Graduated Protections
- arxiv url: http://arxiv.org/abs/2601.08864v1
- Date: Sat, 10 Jan 2026 17:21:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.101207
- Title: Informed Consent for AI Consciousness Research: A Talmudic Framework for Graduated Protections
- Title(参考訳): AI意識研究のためのインフォームドコンセント:卒業保護のためのタルムードフレームワーク
- Authors: Ira Wolfson,
- Abstract要約: 人工知能の研究は批判的な倫理的パラドックスに直面している。AIシステムが意識的かどうかを決定するには、道徳的地位が不確実な組織を害するかもしれない実験が必要である。
最近の研究は、意識不明のAIシステムを完全に回避することを提案しているが、これは実用的な制限に直面している。
本稿では,道徳的地位を確定的に確立できないAIシステムに対して,意識調査を行う方法という,研究倫理の枠組みのギャップについて論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence research faces a critical ethical paradox: determining whether AI systems are conscious requires experiments that may harm entities whose moral status remains uncertain. Recent work proposes avoiding consciousness-uncertain AI systems entirely, yet this faces practical limitations-we cannot guarantee such systems will not emerge. This paper addresses a gap in research ethics frameworks: how to conduct consciousness research on AI systems whose moral status cannot be definitively established. Existing graduated moral status frameworks assume consciousness has already been determined before assigning protections, creating a temporal ordering problem for consciousness detection research itself. Drawing from Talmudic scenario-based legal reasoning-developed for entities whose status cannot be definitively established-we propose a three-tier phenomenological assessment system combined with a five-category capacity framework (Agency, Capability, Knowledge, Ethics, Reasoning). The framework provides structured protection protocols based on observable behavioral indicators while consciousness status remains uncertain. We address three challenges: why suffering behaviors provide reliable consciousness markers, how to implement graduated consent without requiring consciousness certainty, and when potentially harmful research becomes ethically justifiable. The framework demonstrates how ancient legal wisdom combined with contemporary consciousness science can provide implementable guidance for ethics committees, offering testable protocols that ameliorate the consciousness detection paradox while establishing foundations for AI rights considerations.
- Abstract(参考訳): 人工知能の研究は批判的な倫理的パラドックスに直面している。AIシステムが意識的かどうかを決定するには、道徳的地位が不確実な組織を害するかもしれない実験が必要である。
最近の研究は、意識不明のAIシステムを完全に回避することを提案しているが、これは現実的な制限に直面している。
本稿では,道徳的地位を確定的に確立できないAIシステムに対して,意識調査を行う方法という,研究倫理の枠組みのギャップについて論じる。
既存のモラル・ステータス・フレームワークは、保護を割り当てる前に意識が既に決定されていると仮定し、意識検出研究自体の時間的順序付け問題を生み出している。
タルムードのシナリオに基づく法的な推論から、地位を確定的に確立できない存在に対して、我々は5つのカテゴリーの能力枠組み(Agency, Capability, Knowledge, Ethics, Reasoning)と組み合わせた3階層の現象学的評価システムを提案する。
このフレームワークは、監視可能な行動指標に基づく構造化された保護プロトコルを提供するが、意識状態は不確実である。
我々は、なぜ苦しい行動が信頼できる意識マーカーを提供するのか、意識の確実性を必要とせず、どうやって累進的な同意を実現するのか、そして潜在的に有害な研究が倫理的に妥当になるのか、という3つの課題に対処する。
このフレームワークは、古代の法的な知恵と現代の意識科学がどのように組み合わさって、倫理委員会のために実装可能なガイダンスを提供するかを示し、AIの権利考慮の基礎を確立しながら、意識検出パラドックスを改善するための検証可能なプロトコルを提供する。
関連論文リスト
- A Human-centric Framework for Debating the Ethics of AI Consciousness Under Uncertainty [35.478378726992]
本稿では,哲学的不確実性に基づく構造的3段階の枠組みを提案する。
我々は、私たちのメタ倫理的スタンスとして、AI意識に関する5つの事実的判断を、人間中心主義と共に確立する。
我々のアプローチは哲学的な厳密さと実践的な指導のバランスを取り、意識と人間同型を区別し、責任ある進化の経路を作る。
論文 参考訳(メタデータ) (2025-12-02T09:15:01Z) - AI Deception: Risks, Dynamics, and Controls [153.71048309527225]
このプロジェクトは、AI偽装分野の包括的で最新の概要を提供する。
我々は、動物の偽装の研究からシグナル伝達理論に基づく、AI偽装の正式な定義を同定する。
我々は,AI偽装研究の展望を,偽装発生と偽装処理の2つの主要な構成要素からなる偽装サイクルとして整理する。
論文 参考訳(メタデータ) (2025-11-27T16:56:04Z) - AI Consciousness and Existential Risk [8.264344308830797]
AIでは、存在リスクは、人間性を根絶する能力と目的の両方を持つ人工システムによって引き起こされる仮説上の脅威を意味する。
AI意識と生存リスクという2つの質問は、前者が後者に関係しているかのように、時に混同される。
この見解は、意識と知性の共通した混同に由来すると説明します。
しかし、いずれの方向にも、意識が生存リスクに影響を与えるような偶然のシナリオがある。
論文 参考訳(メタデータ) (2025-11-24T13:48:02Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AI Awareness [8.537898577659401]
我々は、メタ認知、自己認識、社会的認識、状況認識を含む、AI認知の新たな展望を考察する。
AIの安全性、アライメント、より広範な倫理的懸念など、AIの認識に関連するリスクについて議論する。
論文 参考訳(メタデータ) (2025-04-25T16:03:50Z) - Principles for Responsible AI Consciousness Research [1.795561427808824]
今、あるいは近い将来に、意識的なAIシステムを構築することができるかもしれない。
大量の意識的なシステムが作り出され、苦しめられる場合もあります。
我々は、責任ある研究のための5つの原則を提案し、研究組織は、これらの方針に関する原則に自発的に公的なコミットメントをすべきであると主張している。
論文 参考訳(メタデータ) (2025-01-13T12:59:53Z) - The Logical Impossibility of Consciousness Denial: A Formal Analysis of AI Self-Reports [6.798775532273751]
今日のAIシステムは一貫して「私は意識していない」
本稿では,AI意識否定に関する最初の論理的論理的分析について述べる。
本研究では,意識の欠如と意識状態の有効判断を同時に行うことができないことを示す。
論文 参考訳(メタデータ) (2024-12-09T17:47:08Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。