論文の概要: Unbounded Harms, Bounded Law: Liability in the Age of Borderless AI
- arxiv url: http://arxiv.org/abs/2601.12646v1
- Date: Mon, 19 Jan 2026 01:44:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.721275
- Title: Unbounded Harms, Bounded Law: Liability in the Age of Borderless AI
- Title(参考訳): 境界のないAIの時代における責任
- Authors: Ha-Chi Tran,
- Abstract要約: 人工知能(AI)の急速な普及は、リスクガバナンスにおいて重大な欠陥を露呈している。
責任配分、責任帰属、治療効果に関する主要な法的問題は、十分に理論化され、制度化されたままである。
本稿では,高リスク超国家からの補償と負債の枠組みについて検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid proliferation of artificial intelligence (AI) has exposed significant deficiencies in risk governance. While ex-ante harm identification and prevention have advanced, Responsible AI scholarship remains underdeveloped in addressing ex-post liability. Core legal questions regarding liability allocation, responsibility attribution, and remedial effectiveness remain insufficiently theorized and institutionalized, particularly for transboundary harms and risks that transcend national jurisdictions. Drawing on contemporary AI risk analyses, we argue that such harms are structurally embedded in global AI supply chains and are likely to escalate in frequency and severity due to cross-border deployment, data infrastructures, and uneven national oversight capacities. Consequently, territorially bounded liability regimes are increasingly inadequate. Using a comparative and interdisciplinary approach, this paper examines compensation and liability frameworks from high-risk transnational domains - including vaccine injury schemes, systemic financial risk governance, commercial nuclear liability, and international environmental regimes - to distill transferable legal design principles such as strict liability, risk pooling, collective risk-sharing, and liability channelling, while highlighting potential structural constraints on their application to AI-related harms. Situated within an international order shaped more by AI arms race dynamics than cooperative governance, the paper outlines the contours of a global AI accountability and compensation architecture, emphasizing the tension between geopolitical rivalry and the collective action required to govern transboundary AI risks effectively.
- Abstract(参考訳): 人工知能(AI)の急速な普及は、リスクガバナンスにおいて重大な欠陥を露呈している。
元アリの身元確認と予防が進んでいるが、責任あるAI奨学金はポストの負債に対応するために未開発のままである。
債務配分、責任帰属、救済効果に関する主要な法的問題は、特に国家司法管轄区域を超越する超境界的損害とリスクに対して、十分に理論化され、制度化されたままである。
現代のAIリスク分析に基づいて、このような危害はグローバルなAIサプライチェーンに構造的に埋め込まれており、国境を越えたデプロイメント、データインフラストラクチャ、および不均一な国家の監視能力によって、頻度と重大度が増大する可能性が高い、と論じる。
その結果、領土制限付き債務制度はますます不十分になっている。
本稿では, リスクプーリング, 集団的リスク共有, 責任チャネルリングといった, 移転可能な法的設計原則を蒸留するために, ワクチン損傷計画, システム的金融リスクガバナンス, 商業的核責任, 国際的な環境体制を含む高リスク超国家からの補償と責任の枠組みを検討するとともに, それらのAI関連害に対する潜在的な構造的制約を明らかにする。
この論文は、グローバルなAI説明責任と補償アーキテクチャの輪郭を概説し、地政学的対立と、越境的なAIリスクを効果的に管理するために必要な集団的行動との緊張を強調した。
関連論文リスト
- AI, Digital Platforms, and the New Systemic Risk [2.0090452213078445]
我々は、AI、プラットフォーム、ハイブリッドシステムガバナンスにおけるシステムリスクを理解するための厳格なフレームワークを開発する。
我々は、EUのAI法やデジタルサービス法を含む最近の法律は、体系的なリスクを呼び起こすが、狭小または曖昧な特徴に依存していると主張している。
我々のフレームワークは、複数のAIエージェントの相互作用に起因するシステム障害の可能性を含む、新しいリスクパスを強調している。
論文 参考訳(メタデータ) (2025-09-22T15:14:23Z) - Toward a Unified Security Framework for AI Agents: Trust, Risk, and Liability [2.8407281360114527]
信頼・リスク・責任(TRL)フレームワークは、信頼・リスク・責任の相互依存関係を結び付け、信頼の構築・強化の体系的な方法を提供する。
TRLフレームワークの意義は、その潜在的な社会的影響、経済的影響、倫理的影響などにある。
潜在的な課題に対処し、6GネットワークにおけるAIの信頼性、リスクフリー、責任ある使用を促進するために、優れた価値をもたらすことが期待されている。
論文 参考訳(メタデータ) (2025-09-18T01:55:03Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Catastrophic Liability: Managing Systemic Risks in Frontier AI Development [0.4999814847776098]
フロンティアAI開発は、社会に大規模な影響を及ぼす可能性のある、システム的リスクをもたらす可能性がある。
多くのAIラボでの現在のプラクティスでは、安全対策、テスト手順、ガバナンス構造に関する十分な透明性が欠如している。
我々は、フロンティアAI開発における安全性ドキュメントと説明責任に関する包括的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-05-01T15:47:14Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - A risk-based approach to assessing liability risk for AI-driven harms
considering EU liability directive [0.0]
AIによる害の歴史的事例により、欧州連合はAIの責任指令を制定した。
製品責任主張に競合するプロバイダの今後の能力は、AIシステムの設計、開発、保守において採用される優れたプラクティスに依存します。
本稿では,AIによる外傷に対する責任を検討するためのリスクベースアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-18T15:52:43Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。