論文の概要: Verification methods for international AI agreements
- arxiv url: http://arxiv.org/abs/2408.16074v2
- Date: Mon, 4 Nov 2024 20:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 04:19:50.230713
- Title: Verification methods for international AI agreements
- Title(参考訳): 国際AI協定の検証方法
- Authors: Akash R. Wasil, Tom Reed, Jack William Miller, Peter Barnett,
- Abstract要約: 潜在的な2種類の違反を検出できる10の検証方法を検討した。
各検証手法について, 記述, 過去の事例, 回避技術について述べる。
- 参考スコア(独自算出の注目度): 1.6874375111244329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What techniques can be used to verify compliance with international agreements about advanced AI development? In this paper, we examine 10 verification methods that could detect two types of potential violations: unauthorized AI training (e.g., training runs above a certain FLOP threshold) and unauthorized data centers. We divide the verification methods into three categories: (a) national technical means (methods requiring minimal or no access from suspected non-compliant nations), (b) access-dependent methods (methods that require approval from the nation suspected of unauthorized activities), and (c) hardware-dependent methods (methods that require rules around advanced hardware). For each verification method, we provide a description, historical precedents, and possible evasion techniques. We conclude by offering recommendations for future work related to the verification and enforcement of international AI governance agreements.
- Abstract(参考訳): 高度なAI開発に関する国際協定の遵守を検証するために、どのようなテクニックが使えるのか?
本稿では,未認可のAIトレーニング(例えば,あるFLOPしきい値を超えるトレーニング)と未許可のデータセンタの2種類の潜在的な違反を検出するための10の検証方法を検討する。
検証方法は3つのカテゴリに分けられる。
(a)国家技術手段(疑わしい非従属国からのアクセスを極力必要としない方法)
ロ アクセス依存方法(不正行為の疑いのある国家の承認を必要とする方法)及び
(c) ハードウェアに依存した手法(高度なハードウェアに関する規則を必要とする手法)。
各検証手法について, 記述, 過去の事例, 回避技術について述べる。
我々は、国際AIガバナンス協定の検証と実施に関する今後の業務に対する勧告を提供することで、締めくくります。
関連論文リスト
- Practical Application and Limitations of AI Certification Catalogues in the Light of the AI Act [0.1433758865948252]
この研究は、AI法に照らして既存の認定カタログの実用的適用と制限に焦点を当てている。
我々は、AIアセスメントカタログを総合的なツールとして、AIモデルの認定基準準拠を体系的に評価する。
我々は、もはやアクティブな開発チームを持たないAIシステムの限界を観察し、完全なシステムドキュメンテーションの重要性を強調します。
論文 参考訳(メタデータ) (2025-01-20T15:54:57Z) - Subversion Strategy Eval: Evaluating AI's stateless strategic capabilities against control protocols [53.53802315778733]
以前の作業では、AIが人間書きの戦略に従うような、人間とAIのレッドチームでプロトコルを転向させることで、プロトコルを評価していた。
本稿では、プライベートメモリなしで動作しながら制御プロトコルを変換する戦略において、AIシステムがいかにうまく機能するかを検討する。
論文 参考訳(メタデータ) (2024-12-17T02:33:45Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An FDA for AI? Pitfalls and Plausibility of Approval Regulation for Frontier Artificial Intelligence [0.0]
我々は、フロンティアAIの規制に対する承認規制、すなわち、実験的なミニマと、その実験で部分的にまたは完全に条件付けられた政府のライセンスとを組み合わせた製品の適用性について検討する。
承認規制が単に適用されたとしても、フロンティアAIのリスクには不適当であると考える理由はいくつかある。
規制開発における政策学習と実験の役割を強調して締めくくる。
論文 参考訳(メタデータ) (2024-08-01T17:54:57Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - How VADER is your AI? Towards a definition of artificial intelligence systems appropriate for regulation [39.58317527488534]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Nuclear Arms Control Verification and Lessons for AI Treaties [0.0]
AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
論文 参考訳(メタデータ) (2023-04-08T23:05:24Z) - Correct-by-Construction Runtime Enforcement in AI -- A Survey [3.509295509987626]
執行とは、実行時のシステムの正式な仕様に関して正しい振る舞いを強制する理論、技術、ツールを指す。
我々は、AIの分野で伝統的に安全がどのように扱われているか、そしてランタイムの執行機関を統合することで、自律学習エージェントの安全性に対するより正式な保証が与えられるかについて議論する。
論文 参考訳(メタデータ) (2022-08-30T17:45:38Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。