論文の概要: Verifying International Agreements on AI: Six Layers of Verification for Rules on Large-Scale AI Development and Deployment
- arxiv url: http://arxiv.org/abs/2507.15916v2
- Date: Fri, 25 Jul 2025 17:45:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 12:09:50.604733
- Title: Verifying International Agreements on AI: Six Layers of Verification for Rules on Large-Scale AI Development and Deployment
- Title(参考訳): AIに関する国際協定の検証: 大規模AI開発とデプロイメントに関する6つのルールの検証
- Authors: Mauricio Baker, Gabriel Kulp, Oliver Marks, Miles Brundage, Lennart Heim,
- Abstract要約: このレポートは、政策の専門家と技術研究者の両方を対象とした、AI検証の詳細な概要を提供する。
本稿では、新しい概念フレームワーク、詳細な実装オプション、そして重要なR&D課題について述べる。
州は最終的に6つのほぼ独立した検証手法を用いてコンプライアンスを検証できることがわかった。
- 参考スコア(独自算出の注目度): 0.7364983833280243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The risks of frontier AI may require international cooperation, which in turn may require verification: checking that all parties follow agreed-on rules. For instance, states might need to verify that powerful AI models are widely deployed only after their risks to international security have been evaluated and deemed manageable. However, research on AI verification could benefit from greater clarity and detail. To address this, this report provides an in-depth overview of AI verification, intended for both policy professionals and technical researchers. We present novel conceptual frameworks, detailed implementation options, and key R&D challenges. These draw on existing literature, expert interviews, and original analysis, all within the scope of confidentially overseeing AI development and deployment that uses thousands of high-end AI chips. We find that states could eventually verify compliance by using six largely independent verification approaches with substantial redundancy: (1) built-in security features in AI chips; (2-3) separate monitoring devices attached to AI chips; and (4-6) personnel-based mechanisms, such as whistleblower programs. While promising, these approaches require guardrails to protect against abuse and power concentration, and many of these technologies have yet to be built or stress-tested. To enable states to confidently verify compliance with rules on large-scale AI development and deployment, the R&D challenges we list need significant progress.
- Abstract(参考訳): フロンティアAIのリスクは国際協力を必要とする可能性がある。
例えば、国際セキュリティに対するリスクが評価され、管理可能であると判断された後にのみ、強力なAIモデルが広くデプロイされていることを確認する必要があるかもしれない。
しかし、AI検証の研究は、より明確で詳細なことの恩恵を受ける可能性がある。
この問題に対処するため、このレポートは、政策の専門家と技術研究者の両方を対象とした、AI検証の詳細な概要を提供する。
本稿では、新しい概念フレームワーク、詳細な実装オプション、そして重要なR&D課題について述べる。
これらはすべて、数千ものハイエンドAIチップを使用するAI開発とデプロイメントを秘密に監視する範囲内にある。
1)AIチップに内蔵されたセキュリティ機能,(2-3)AIチップに付属する別個の監視装置,(4-6)ホイッスルブロワープログラムなどの人員ベースのメカニズム。
これらのアプローチは有望ではあるが、悪用や電力集中から保護するためにガードレールを必要としており、これらの技術の多くはまだ建設やストレステストが行われていない。
国家が大規模AI開発とデプロイメントに関する規則の遵守を確実に検証できるようにするためには、私たちがリストアップしたR&Dの課題は大きな進歩を必要とします。
関連論文リスト
- The Singapore Consensus on Global AI Safety Research Priorities [128.58674892183657]
2025年シンガポールAI会議(SCAI: International Scientific Exchange on AI Safety)は、この分野での研究を支援することを目的としている。
ヨシュア・ベンジオが議長を務める国際AI安全レポート(AI Safety Report)は、33の政府によって支援されている。
レポートは、AI安全研究ドメインを3つのタイプに分類する。信頼に値するAIシステム(開発)作成の課題、リスク評価の課題(評価)、デプロイメント後の監視と介入の課題(会議)。
論文 参考訳(メタデータ) (2025-06-25T17:59:50Z) - Mechanisms to Verify International Agreements About AI Development [0.0]
報告書は、各国が互いのAI開発とデプロイメントに関する主張を実際に検証する方法を実証することを目的としている。
焦点は国際協定と国家が関与するAI開発だが、これらのアプローチは企業の国内規制にも適用できる。
論文 参考訳(メタデータ) (2025-06-18T20:28:54Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Position: Mind the Gap-the Growing Disconnect Between Established Vulnerability Disclosure and AI Security [56.219994752894294]
我々は、AIセキュリティレポートに既存のプロセスを適用することは、AIシステムの特徴的な特徴に対する根本的な欠点のために失敗する運命にあると主張している。
これらの欠点に対処する私たちの提案に基づき、AIセキュリティレポートへのアプローチと、新たなAIパラダイムであるAIエージェントが、AIセキュリティインシデント報告の進展をさらに強化する方法について論じる。
論文 参考訳(メタデータ) (2024-12-19T13:50:26Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - How Could Generative AI Support Compliance with the EU AI Act? A Review for Safe Automated Driving Perception [4.075971633195745]
ディープニューラルネットワーク(DNN)は、自動運転車の知覚機能の中心となっている。
EU(EU)人工知能(AI)法は、AIシステムの厳格な規範と標準を確立することによって、これらの課題に対処することを目的としている。
本稿では、DNNに基づく知覚システムに関するEU AI法から生じる要件を要約し、ADにおける既存の生成AIアプリケーションを体系的に分類する。
論文 参考訳(メタデータ) (2024-08-30T12:01:06Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - Nuclear Arms Control Verification and Lessons for AI Treaties [0.0]
AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
論文 参考訳(メタデータ) (2023-04-08T23:05:24Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Vulnerabilities of Connectionist AI Applications: Evaluation and Defence [0.0]
この記事では、コネクショナリスト人工知能(AI)アプリケーションのITセキュリティを扱い、完全性への脅威に焦点を当てます。
脅威の包括的リストと軽減の可能性は、最先端の文献をレビューすることによって提示される。
緩和に関する議論は同様に、AIシステム自体のレベルに限定されず、むしろサプライチェーンの文脈でAIシステムを見ることを提唱している。
論文 参考訳(メタデータ) (2020-03-18T12:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。