論文の概要: Unbounded Harms, Bounded Law: Liability in the Age of Borderless AI
- arxiv url: http://arxiv.org/abs/2601.12646v1
- Date: Mon, 19 Jan 2026 01:44:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.721275
- Title: Unbounded Harms, Bounded Law: Liability in the Age of Borderless AI
- Title(参考訳): 境界のないAIの時代における責任
- Authors: Ha-Chi Tran,
- Abstract要約: 人工知能(AI)の急速な普及は、リスクガバナンスにおいて重大な欠陥を露呈している。
責任配分、責任帰属、治療効果に関する主要な法的問題は、十分に理論化され、制度化されたままである。
本稿では,高リスク超国家からの補償と負債の枠組みについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of artificial intelligence (AI) has exposed significant deficiencies in risk governance. While ex-ante harm identification and prevention have advanced, Responsible AI scholarship remains underdeveloped in addressing ex-post liability. Core legal questions regarding liability allocation, responsibility attribution, and remedial effectiveness remain insufficiently theorized and institutionalized, particularly for transboundary harms and risks that transcend national jurisdictions. Drawing on contemporary AI risk analyses, we argue that such harms are structurally embedded in global AI supply chains and are likely to escalate in frequency and severity due to cross-border deployment, data infrastructures, and uneven national oversight capacities. Consequently, territorially bounded liability regimes are increasingly inadequate. Using a comparative and interdisciplinary approach, this paper examines compensation and liability frameworks from high-risk transnational domains - including vaccine injury schemes, systemic financial risk governance, commercial nuclear liability, and international environmental regimes - to distill transferable legal design principles such as strict liability, risk pooling, collective risk-sharing, and liability channelling, while highlighting potential structural constraints on their application to AI-related harms. Situated within an international order shaped more by AI arms race dynamics than cooperative governance, the paper outlines the contours of a global AI accountability and compensation architecture, emphasizing the tension between geopolitical rivalry and the collective action required to govern transboundary AI risks effectively.
- Abstract(参考訳): 人工知能(AI)の急速な普及は、リスクガバナンスにおいて重大な欠陥を露呈している。
元アリの身元確認と予防が進んでいるが、責任あるAI奨学金はポストの負債に対応するために未開発のままである。
債務配分、責任帰属、救済効果に関する主要な法的問題は、特に国家司法管轄区域を超越する超境界的損害とリスクに対して、十分に理論化され、制度化されたままである。
現代のAIリスク分析に基づいて、このような危害はグローバルなAIサプライチェーンに構造的に埋め込まれており、国境を越えたデプロイメント、データインフラストラクチャ、および不均一な国家の監視能力によって、頻度と重大度が増大する可能性が高い、と論じる。
その結果、領土制限付き債務制度はますます不十分になっている。
本稿では, リスクプーリング, 集団的リスク共有, 責任チャネルリングといった, 移転可能な法的設計原則を蒸留するために, ワクチン損傷計画, システム的金融リスクガバナンス, 商業的核責任, 国際的な環境体制を含む高リスク超国家からの補償と責任の枠組みを検討するとともに, それらのAI関連害に対する潜在的な構造的制約を明らかにする。
この論文は、グローバルなAI説明責任と補償アーキテクチャの輪郭を概説し、地政学的対立と、越境的なAIリスクを効果的に管理するために必要な集団的行動との緊張を強調した。
関連論文リスト
- Toward a Unified Security Framework for AI Agents: Trust, Risk, and Liability [2.8407281360114527]
信頼・リスク・責任(TRL)フレームワークは、信頼・リスク・責任の相互依存関係を結び付け、信頼の構築・強化の体系的な方法を提供する。
TRLフレームワークの意義は、その潜在的な社会的影響、経済的影響、倫理的影響などにある。
潜在的な課題に対処し、6GネットワークにおけるAIの信頼性、リスクフリー、責任ある使用を促進するために、優れた価値をもたらすことが期待されている。
論文 参考訳(メタデータ) (2025-09-18T01:55:03Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Catastrophic Liability: Managing Systemic Risks in Frontier AI Development [0.4999814847776098]
フロンティアAI開発は、社会に大規模な影響を及ぼす可能性のある、システム的リスクをもたらす可能性がある。
多くのAIラボでの現在のプラクティスでは、安全対策、テスト手順、ガバナンス構造に関する十分な透明性が欠如している。
我々は、フロンティアAI開発における安全性ドキュメントと説明責任に関する包括的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-05-01T15:47:14Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - A risk-based approach to assessing liability risk for AI-driven harms
considering EU liability directive [0.0]
AIによる害の歴史的事例により、欧州連合はAIの責任指令を制定した。
製品責任主張に競合するプロバイダの今後の能力は、AIシステムの設計、開発、保守において採用される優れたプラクティスに依存します。
本稿では,AIによる外傷に対する責任を検討するためのリスクベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-18T15:52:43Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。