論文の概要: Operational Agency: A Permeable Legal Fiction for Tracing Culpability in AI Systems
- arxiv url: http://arxiv.org/abs/2602.17932v1
- Date: Fri, 20 Feb 2026 01:49:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.200815
- Title: Operational Agency: A Permeable Legal Fiction for Tracing Culpability in AI Systems
- Title(参考訳): オペレーショナルエージェンシー:AIシステムにおけるカルパビリティの追跡のための透過的な法的フィクション
- Authors: Anirban Mukherjee, Hannah Hanwen Chang,
- Abstract要約: 本条では、後述の枠組み及び運用機関グラフ(OAG)として構成された、通用可能な法的フィクションについて紹介する。
OAはAIの観測可能な運用特性を評価する。
OAGは、これらの特徴を因果グラフに埋め込んで、開発者、ファインタウンタ、デプロイ者、ユーザ間の計算可能性を追跡し、評価することで、その分析を運用する。
- 参考スコア(独自算出の注目度): 0.31061678033205636
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern artificial intelligence (AI) systems act with a high degree of independence yet lack legal personhood-a paradox that fractures doctrines grounded in human-centric notions of mens rea and actus reus. This Article introduces Operational Agency (OA)-a permeable legal fiction structured as an ex post evidentiary framework-and Operational Agency Graph (OAG), a tool for mapping causal interactions among human actors, organizations, and AI systems. OA evaluates an AI's observable operational characteristics: its goal-directedness (as a proxy for intent), predictive processing (as a proxy for foresight), and safety architecture (as a proxy for a standard of care). OAG operationalizes that analysis by embedding these characteristics in a causal graph to trace and apportion culpability among developers, fine-tuners, deployers, and users. Drawing on corporate criminal liability, the innocent-agent doctrine, and secondary and vicarious liability frameworks, the Article shows how OA and OAG strengthen existing doctrines. Across five real-world case studies spanning tort, civil rights, constitutional law, and antitrust, it demonstrates how the framework addresses challenges ranging from autonomous vehicle collisions to algorithmic price-fixing, offering courts a principled evidentiary method-and legislatures and industry a conceptual foundation-to ensure human accountability keeps pace with technological autonomy, without conferring personhood on AI.
- Abstract(参考訳): 現代の人工知能(AI)システムは高い独立性を持って行動するが、法的な人格は欠如している。
本稿では,人間俳優,組織,AIシステム間の因果関係をマッピングするツールであるOAG(Operational Agency)とOAG(Operational Agency Graph)について紹介する。
OAは、目標指向性(意図のプロキシ)、予測処理(監視のプロキシ)、安全アーキテクチャ(ケア標準のプロキシ)といった、AIの観測可能な運用特性を評価している。
OAGは、これらの特徴を因果グラフに埋め込んで、開発者、ファインタウンタ、デプロイ者、ユーザ間の計算可能性を追跡し、評価することで、その分析を運用する。
法人の刑事責任、無罪の教義、二次的かつ活力的な債務の枠組みに基づき、OAとOAGがいかに既存の教義を強化するかを示す。
トート、公民権、立憲法、反トラストにまたがる5つの現実世界のケーススタディにおいて、このフレームワークは、自動運転車の衝突からアルゴリズムによる価格固定に至るまでの課題にどのように対処するかを示し、裁判所に原則化された実証的方法と立法、産業に、AIに人格を委ねることなく、人間の説明責任が技術的自律性を維持するための概念的基盤を提供する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AI Agents and the Law [17.712990593093316]
我々は、エージェントの技術的な概念が、エージェンシーの社会法的概念の一部を追跡するが、全てではないことを示す。
機関法における暗黙の権威とAIにおける価値アライメントの原理の相関について検討する。
論文 参考訳(メタデータ) (2025-08-12T01:18:48Z) - A Moral Agency Framework for Legitimate Integration of AI in Bureaucracies [0.0]
公務員官僚は人工知能(AI)の恩恵を享受しようとする
本稿では,官僚構造におけるAIの合法的な統合のための3点のモラルエージェンシー・フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-11T17:49:19Z) - FAIRTOPIA: Envisioning Multi-Agent Guardianship for Disrupting Unfair AI Pipelines [1.556153237434314]
AIモデルは積極的な意思決定者となり、しばしば人間の監督なしに行動している。
エージェントは彼らの環境から学ぶので、公正な保護者としてエージェントを想定する。
本稿では,マルチロールエージェントをエンドツーエンド(人間からAI)のシナジースキームに組み込むフェアネス・バイ・デザイン手法を提案する。
論文 参考訳(メタデータ) (2025-06-10T17:02:43Z) - Artificial Intelligence in Government: Why People Feel They Lose Control [44.99833362998488]
行政における人工知能の利用は急速に拡大している。
AIはより効率と応答性を約束するが、政府機能への統合は公正性、透明性、説明責任に関する懸念を提起する。
この記事では、デリゲートの特別事例として、AI導入に関するプリンシパル・エージェント理論を適用します。
論文 参考訳(メタデータ) (2025-05-02T07:46:41Z) - Governing AI Agents [0.2913760942403036]
本項では、主エージェント問題に関する経済理論と、機関関係に関する共通法学説を概観する。
それは、情報非対称性、差別的権威、忠誠といった問題を含む、AIエージェントから生じる問題を特定する。
包括性、可視性、責任のガバナンス原則をサポートするためには、新しい技術的および法的基盤が必要である、と氏は主張する。
論文 参考訳(メタデータ) (2025-01-14T07:55:18Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。