論文の概要: Legal Zero-Days: A Novel Risk Vector for Advanced AI Systems
- arxiv url: http://arxiv.org/abs/2508.10050v1
- Date: Tue, 12 Aug 2025 11:43:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.050167
- Title: Legal Zero-Days: A Novel Risk Vector for Advanced AI Systems
- Title(参考訳): 法律ゼロデイ: 高度なAIシステムのための新たなリスクベクトル
- Authors: Greg Sadler, Nathan Sherburn,
- Abstract要約: 違法ゼロデイズ(Legal Zero-Days)は、衝突前に訴訟やその他の手続きを必要とせず、即時かつ重大な社会的混乱を引き起こす可能性のある法的枠組みにおける未発見の脆弱性である。
我々は、これらの脆弱性を特定して評価するためのリスクモデルを示し、AIインシデントに対する保護や政府の対応を回避できる可能性を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the concept of "Legal Zero-Days" as a novel risk vector for advanced AI systems. Legal Zero-Days are previously undiscovered vulnerabilities in legal frameworks that, when exploited, can cause immediate and significant societal disruption without requiring litigation or other processes before impact. We present a risk model for identifying and evaluating these vulnerabilities, demonstrating their potential to bypass safeguards or impede government responses to AI incidents. Using the 2017 Australian dual citizenship crisis as a case study, we illustrate how seemingly minor legal oversights can lead to large-scale governance disruption. We develop a methodology for creating "legal puzzles" as evaluation instruments for assessing AI systems' capabilities to discover such vulnerabilities. Our findings suggest that while current AI models may not reliably find impactful Legal Zero-Days, future systems may develop this capability, presenting both risks and opportunities for improving legal robustness. This work contributes to the broader effort to identify and mitigate previously unrecognized risks from frontier AI systems.
- Abstract(参考訳): 先進的なAIシステムのリスクベクトルとして,"Legal Zero-Days"の概念を導入する。
法律のゼロデイ(英語: Legal Zero-Days)は、法的枠組みにおいて以前は発見されていない脆弱性であり、悪用されると、衝突前に訴訟やその他のプロセスを必要とせずに、即時かつ重大な社会的破壊を引き起こす可能性がある。
我々は、これらの脆弱性を特定して評価するためのリスクモデルを示し、AIインシデントに対する保護や政府の対応を回避できる可能性を実証する。
2017年のオーストラリア二重市民権危機をケーススタディとして、法的な見地から見ると、大規模な統治の混乱につながる可能性があることを示す。
このような脆弱性を発見するためのAIシステムの能力を評価するための評価手段として、「法的なパズル」を作成する方法論を開発する。
我々の研究結果は、現在のAIモデルは、影響のある法的なゼロデイを確実に見つけられないかもしれないが、将来のシステムは、法的な堅牢性を改善するためのリスクと機会の両方を提示して、この能力を開発するかもしれないことを示唆している。
この研究は、フロンティアAIシステムによる未認識のリスクを特定し、軽減するための幅広い取り組みに寄与する。
関連論文リスト
- AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - How Could Generative AI Support Compliance with the EU AI Act? A Review for Safe Automated Driving Perception [4.075971633195745]
ディープニューラルネットワーク(DNN)は、自動運転車の知覚機能の中心となっている。
EU(EU)人工知能(AI)法は、AIシステムの厳格な規範と標準を確立することによって、これらの課題に対処することを目的としている。
本稿では、DNNに基づく知覚システムに関するEU AI法から生じる要件を要約し、ADにおける既存の生成AIアプリケーションを体系的に分類する。
論文 参考訳(メタデータ) (2024-08-30T12:01:06Z) - Risks of AI Scientists: Prioritizing Safeguarding Over Autonomy [65.77763092833348]
この視点は、AI科学者の脆弱性を調べ、その誤用に関連する潜在的なリスクに光を当てる。
我々は、ユーザ意図、特定の科学的領域、およびそれらが外部環境に与える影響を考慮に入れている。
本稿では,人間規制,エージェントアライメント,環境フィードバックの理解を含む三段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。