論文の概要: Fluid Agency in AI Systems: A Case for Functional Equivalence in Copyright, Patent, and Tort
- arxiv url: http://arxiv.org/abs/2601.02633v1
- Date: Tue, 06 Jan 2026 01:06:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.761482
- Title: Fluid Agency in AI Systems: A Case for Functional Equivalence in Copyright, Patent, and Tort
- Title(参考訳): AIシステムにおけるFluid Agency: 著作権,特許,トートにおける機能的等価性の事例
- Authors: Anirban Mukherjee, Hannah Hanwen Chang,
- Abstract要約: 現代の人工知能(AI)システムには、人間の意識や能力が欠如している。
流体機関は貴重な出力を生成するが、帰属は崩壊する。
本条では,機能的等価性だけが教義を安定させると主張している。
- 参考スコア(独自算出の注目度): 0.31061678033205636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern Artificial Intelligence (AI) systems lack human-like consciousness or culpability, yet they exhibit fluid agency: behavior that is (i) stochastic (probabilistic and path-dependent), (ii) dynamic (co-evolving with user interaction), and (iii) adaptive (able to reorient across contexts). Fluid agency generates valuable outputs but collapses attribution, irreducibly entangling human and machine inputs. This fundamental unmappability fractures doctrines that assume traceable provenance--authorship, inventorship, and liability--yielding ownership gaps and moral "crumple zones." This Article argues that only functional equivalence stabilizes doctrine. Where provenance is indeterminate, legal frameworks must treat human and AI contributions as equivalent for allocating rights and responsibility--not as a claim of moral or economic parity but as a pragmatic default. This principle stabilizes doctrine across domains, offering administrable rules: in copyright, vesting ownership in human orchestrators without parsing inseparable contributions; in patent, tying inventor-of-record status to human orchestration and reduction to practice, even when AI supplies the pivotal insight; and in tort, replacing intractable causation inquiries with enterprise-level and sector-specific strict or no-fault schemes. The contribution is both descriptive and normative: fluid agency explains why origin-based tests fail, while functional equivalence supplies an outcome-focused framework to allocate rights and responsibility when attribution collapses.
- Abstract(参考訳): 現代の人工知能(AI)システムは人間のような意識や能力に欠けるが、流動的な行動を示す。
(i)確率的(確率的・経路依存)
(ii)ダイナミック(ユーザインタラクションとの共進化)、
(iii)適応(文脈にまたがって順応することができる)
流体機関は貴重な出力を生成するが、人間と機械の入力を無意識に絡ませて、帰属を崩壊させる。
この根本的な不運は、追跡可能な証明(オーサリング、発明、負債)を前提としたドクトリンを破り、所有権のギャップと道徳的な「義務ゾーン」を生じる。
本条では,機能的等価性だけが教義を安定させると主張している。
証明が決定的でない場合は、法的枠組みは人権と責任を割り当てるための人間とAIの貢献を、道徳的または経済的平等の主張としてではなく、現実的なデフォルトとして扱う必要がある。
この原則は、ドメイン間のドクトリンを安定化させ、管理可能なルールを提供する: 著作権において、別個の貢献をすることなく人間のオーケストレータに所有権を付与する; 特許において、AIが重要な洞察を提供する場合でも、人間のオーケストレーションと実践への記録的地位を結び付ける; トラトにおいては、難解な因果関係を、企業レベルおよびセクター固有の厳密なまたは非デフォルトのスキームに置き換える。
流体機関はなぜ原点に基づくテストが失敗するのかを説明し、機能的等価性は帰属が崩壊した場合の権利と責任を割り当てるための結果に焦点を当てた枠組みを提供する。
関連論文リスト
- The Principle of Proportional Duty: A Knowledge-Duty Framework for Ethical Equilibrium in Human and Artificial Systems [0.0]
本稿では,倫理的責任がエージェントのてんかん状態とどのようにスケールするかをモデル化する新しい枠組みであるProportional Duty(PPD)について紹介する。
不確実性の増加に伴い、Action Duty(決定的に行動する義務)は、補修デューティ(不確実性を確認し、調査し、解決する活動的義務)に比例的に変換される。
本稿では,臨床倫理,受取権法,経済ガバナンス,人工知能の4分野にまたがる枠組みを適用し,学際的妥当性を実証する。
論文 参考訳(メタデータ) (2025-12-07T02:37:07Z) - A Pragmatic View of AI Personhood [45.069027101429704]
エージェント人工知能は、新しいタイプの人格の「カンブリア爆発」を引き起こすように設定されている。
本稿では,この多角化をナビゲートするための実用的枠組みを提案する。
我々は、この伝統的なバンドルは、異なるコンテキストに対する好ましくないソリューションを作成することができると論じる。
論文 参考訳(メタデータ) (2025-10-30T11:36:34Z) - Epistemic Scarcity: The Economics of Unresolvable Unknowns [0.0]
我々は、AIシステムは経済調整の中核的な機能を実行することができないと主張している。
我々は、構成主義的合理主義の拡張として、支配的な倫理的AIフレームワークを批判する。
論文 参考訳(メタデータ) (2025-07-02T08:46:24Z) - Resource Rational Contractualism Should Guide AI Alignment [69.07915246220985]
契約主義的アライメントは、多様な利害関係者が支持する合意の中で決定を下すことを提案する。
我々は、AIシステムが合理的な当事者が形成する合意を近似する枠組みであるリソース・リアリズムを提案する。
RRC対応エージェントは、効率的に機能するだけでなく、変化する人間の社会世界への適応と解釈を動的に行うことができる。
論文 参考訳(メタデータ) (2025-06-20T18:57:13Z) - Ethical AI: Towards Defining a Collective Evaluation Framework [0.3413711585591077]
人工知能(AI)は医療、金融、自律システムといった分野を変えつつある。
しかし、その迅速な統合は、データ所有権、プライバシー、およびシステムバイアスに関する緊急の倫理的懸念を提起する。
本稿では,意味不明で解釈可能な単位のオントロジブロック上に構築されたモジュール型倫理的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-30T21:10:47Z) - Stochastic, Dynamic, Fluid Autonomy in Agentic AI: Implications for Authorship, Inventorship, and Liability [0.2209921757303168]
エージェントAIシステムは、暗黙の学習を通じて戦略を適応し、自律的に目標を追求する。
人間と機械の貢献は、相互に絡み合った創造的なプロセスに不可避的に絡まってしまう。
法律と政策の枠組みは、人間と機械の貢献を機能的に同等に扱う必要があるかもしれないと我々は主張する。
論文 参考訳(メタデータ) (2025-04-05T04:44:59Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Revisiting the Performance-Explainability Trade-Off in Explainable
Artificial Intelligence (XAI) [0.0]
我々は、リソースの可用性、ドメインの特徴、リスクの考慮を組み込んだ、曖昧な方法でアプローチするのが最善である、と論じる。
この研究は、AIのための要求工学の分野を前進させることを目的としている。
論文 参考訳(メタデータ) (2023-07-26T15:07:40Z) - Transporting Causal Mechanisms for Unsupervised Domain Adaptation [98.67770293233961]
本稿では,共同設立地層と表現を識別するための輸送因果メカニズム (TCM) を提案する。
TCMは、3つのUnsupervised Domain Adaptationベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-23T07:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。