論文の概要: Mechanisms to Verify International Agreements About AI Development
- arxiv url: http://arxiv.org/abs/2506.15867v1
- Date: Wed, 18 Jun 2025 20:28:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.84817
- Title: Mechanisms to Verify International Agreements About AI Development
- Title(参考訳): AI開発に関する国際協定を検証するためのメカニズム
- Authors: Aaron Scher, Lisa Thiergart,
- Abstract要約: 報告書は、各国が互いのAI開発とデプロイメントに関する主張を実際に検証する方法を実証することを目的としている。
焦点は国際協定と国家が関与するAI開発だが、これらのアプローチは企業の国内規制にも適用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: International agreements about AI development may be required to reduce catastrophic risks from advanced AI systems. However, agreements about such a high-stakes technology must be backed by verification mechanisms--processes or tools that give one party greater confidence that another is following the agreed-upon rules, typically by detecting violations. This report gives an overview of potential verification approaches for three example policy goals, aiming to demonstrate how countries could practically verify claims about each other's AI development and deployment. The focus is on international agreements and state-involved AI development, but these approaches could also be applied to domestic regulation of companies. While many of the ideal solutions for verification are not yet technologically feasible, we emphasize that increased access (e.g., physical inspections of data centers) can often substitute for these technical approaches. Therefore, we remain hopeful that significant political will could enable ambitious international coordination, with strong verification mechanisms, to reduce catastrophic AI risks.
- Abstract(参考訳): AI開発に関する国際協定は、先進的なAIシステムによる破滅的なリスクを減らすために必要かもしれない。
しかし、そのようなハイテイク技術に関する合意は、検証メカニズム(プロセスまたはツール)によって裏打ちされなければならない。
本報告では,3つの政策目標に対する潜在的な検証アプローチの概要について,各国が相互のAI開発と展開に関する主張を実際に検証する方法を実証することを目的としている。
焦点は国際協定と国家が関与するAI開発だが、これらのアプローチは企業の国内規制にも適用できる。
検証の理想的なソリューションの多くは、まだ技術的に実現可能なものではないが、アクセスの増加(例えば、データセンターの物理的検査)が、これらの技術的アプローチに取って代わることがしばしばあることを強調する。
したがって、重要な政治的意志が、強力な検証機構を備えた野心的な国際協力を可能にして、破滅的なAIリスクを低減できることを期待している。
関連論文リスト
- In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - International Agreements on AI Safety: Review and Recommendations for a Conditional AI Safety Treaty [0.0]
GPAI(Advanced General-purpose AI)の悪意的使用や誤動作は「結婚や人類の絶滅」につながる可能性のあるリスクを引き起こす
これらのリスクに対処するため、AIの安全性に関する国際協定に関する提案が増えている。
本稿では,開発に厳格な監督を要する計算しきい値を確立する条約を提案する。
論文 参考訳(メタデータ) (2025-03-18T16:29:57Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Advancing Trustworthy AI for Sustainable Development: Recommendations for Standardising AI Incident Reporting [2.209921757303168]
AI技術の利用の増加は、AIインシデントの増加、リスクの引き起こし、個人、組織、社会に害を与えている。
本研究では,このようなインシデントデータを確実かつ包括的に収集する標準プロトコルの欠如を認識し,対処する。
このギャップに対処するための標準化努力を強化するため、9つの実行可能な推奨事項を提案する。
論文 参考訳(メタデータ) (2025-01-01T17:34:57Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Nuclear Arms Control Verification and Lessons for AI Treaties [0.0]
AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
論文 参考訳(メタデータ) (2023-04-08T23:05:24Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。