論文の概要: How Should the Law Treat Future AI Systems? Fictional Legal Personhood versus Legal Identity
- arxiv url: http://arxiv.org/abs/2511.14964v1
- Date: Tue, 18 Nov 2025 23:08:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.559263
- Title: How Should the Law Treat Future AI Systems? Fictional Legal Personhood versus Legal Identity
- Title(参考訳): 未来のAIシステムをどのように扱うべきか : 刑事法員対法的アイデンティティ
- Authors: Heather J. Alexander, Jonathan A. Simon, Frédéric Pinard,
- Abstract要約: 我々は、(A)将来のAIシステムに対する対象分類の維持、(B)適切な高度で個別化されたAIシステムに関連する架空の法的人物の作成、または(C)適切な高度で個別化されたAIシステムに対する法的同一性を通じてノンフィクションの法的な人物を認識することによって、全体的な長期的法的一貫性を最大化するかどうかを評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The law draws a sharp distinction between objects and persons, and between two kinds of persons, the ''fictional'' kind (i.e. corporations), and the ''non-fictional'' kind (individual or ''natural'' persons). This paper will assess whether we maximize overall long-term legal coherence by (A) maintaining an object classification for all future AI systems, (B) creating fictional legal persons associated with suitably advanced, individuated AI systems (giving these fictional legal persons derogable rights and duties associated with certified groups of existing persons, potentially including free speech, contract rights, and standing to sue ''on behalf of'' the AI system), or (C) recognizing non-fictional legal personhood through legal identity for suitably advanced, individuated AI systems (recognizing them as entities meriting legal standing with non-derogable rights which for the human case include life, due process, habeas corpus, freedom from slavery, and freedom of conscience). We will clarify the meaning and implications of each option along the way, considering liability, copyright, family law, fundamental rights, civil rights, citizenship, and AI safety regulation. We will tentatively find that the non-fictional personhood approach may be best from a coherence perspective, for at least some advanced AI systems. An object approach may prove untenable for sufficiently humanoid advanced systems, though we suggest that it is adequate for currently existing systems as of 2025. While fictional personhood would resolve some coherence issues for future systems, it would create others and provide solutions that are neither durable nor fit for purpose. Finally, our review will suggest that ''hybrid'' approaches are likely to fail and lead to further incoherence: the choice between object, fictional person and non-fictional person is unavoidable.
- Abstract(参考訳): この法律は、物と人の区別を鋭くし、また「フィクション」の種類(企業)と「ノンフィクション」の種類(個人または「自然」)の2種類を区別している。
本稿は,(A) 将来のAIシステムに対する対象分類の維持,(B) 適宜に進歩した個別のAIシステムに関連する架空の法的人物の創造,(これらの架空の法的人物が,おそらくは言論の自由や契約権を含む既成者の認定されたグループに関係し,かつ,「AIシステム」を代表して訴訟を起こそうとする) あるいは(C) 適宜に進歩したAIシステムに対する法的同一性を通じて,非フィクション的法的人物の認識(これらは,人間の場合において,生命,デュースプロセス,ハビアスコーパス,自由,良性から自由,良心から解放される法的権利を有する存在として認識される)により,全体としての長期的法的一貫性を最大化するか否かを評価する。
我々は、責任、著作権、家族法、基本的権利、公民権、市民権、AI安全規制を考慮して、それぞれの選択肢の意味と意味を明確にする。
我々は、少なくともいくつかの高度なAIシステムにおいて、ノンフィクションの人格アプローチがコヒーレンスの観点から最善であることに仮に気付く。
オブジェクトアプローチは、十分にヒューマノイドな高度なシステムには耐え難いが、2025年現在、既存のシステムには適していることを示唆する。
架空の人格は、将来のシステムに対する一貫性の問題を解決し、他のシステムを作り、永続性も目的にも適さないソリューションを提供するだろう。
最後に、我々のレビューは「ヒブリッド」アプローチが失敗し、さらに不整合を招きかねないことを示唆する: 対象、架空の人、ノンフィクション的な人の選択は避けられない。
関連論文リスト
- Resource Rational Contractualism Should Guide AI Alignment [69.07915246220985]
契約主義的アライメントは、多様な利害関係者が支持する合意の中で決定を下すことを提案する。
我々は、AIシステムが合理的な当事者が形成する合意を近似する枠組みであるリソース・リアリズムを提案する。
RRC対応エージェントは、効率的に機能するだけでなく、変化する人間の社会世界への適応と解釈を動的に行うことができる。
論文 参考訳(メタデータ) (2025-06-20T18:57:13Z) - Towards a Theory of AI Personhood [1.6317061277457001]
我々はAIの人格化に必要な条件を概説する。
もしAIシステムが人間と見なせるなら、AIアライメントの典型的な枠組みは不完全かもしれない。
論文 参考訳(メタデータ) (2025-01-23T10:31:26Z) - Debunking Robot Rights Metaphysically, Ethically, and Legally [0.10241134756773229]
マシンは、否定されたり、権利を与えられたりするものではない、と我々は主張する。
法的見地からすると、ロボットの権利の最良の類推は人権ではなく企業の権利である。
論文 参考訳(メタデータ) (2024-04-15T18:23:58Z) - A Case for AI Safety via Law [0.0]
人工知能(AI)システムを安全にし、人間の価値と整合させるには、オープンな研究課題である。
提案された解決策は、不確実な状況における人間の介入に依存する傾向にある。
本稿では,AIの安全性に対処する上で,効果的な法体系が最善の方法であることを示す。
論文 参考訳(メタデータ) (2023-07-31T19:55:27Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z) - Law Informs Code: A Legal Informatics Approach to Aligning Artificial
Intelligence with Humans [0.0]
法的な解釈と法的な解釈は、不透明な人間の価値を妥当な指令に変換する計算エンジンを形成する。
論理インフォームズ・コード(Law Informs Code)は、複雑な計算法的なプロセスを捉え、それらをAIに埋め込む研究課題である。
論文 参考訳(メタデータ) (2022-09-14T00:49:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。