論文の概要: Verification methods for international AI agreements
- arxiv url: http://arxiv.org/abs/2408.16074v1
- Date: Wed, 28 Aug 2024 18:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 17:43:40.861308
- Title: Verification methods for international AI agreements
- Title(参考訳): 国際AI協定の検証方法
- Authors: Akash R. Wasil, Tom Reed, Jack William Miller, Peter Barnett,
- Abstract要約: 潜在的な2種類の違反を検出できる10の検証方法を検討した。
各検証手法について, 記述, 過去の事例, 回避技術について述べる。
- 参考スコア(独自算出の注目度): 1.6874375111244329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What techniques can be used to verify compliance with international agreements about advanced AI development? In this paper, we examine 10 verification methods that could detect two types of potential violations: unauthorized AI training (e.g., training runs above a certain FLOP threshold) and unauthorized data centers. We divide the verification methods into three categories: (a) national technical means (methods requiring minimal or no access from suspected non-compliant nations), (b) access-dependent methods (methods that require approval from the nation suspected of unauthorized activities), and (c) hardware-dependent methods (methods that require rules around advanced hardware). For each verification method, we provide a description, historical precedents, and possible evasion techniques. We conclude by offering recommendations for future work related to the verification and enforcement of international AI governance agreements.
- Abstract(参考訳): 高度なAI開発に関する国際協定の遵守を検証するために、どのようなテクニックが使えるのか?
本稿では,未認可のAIトレーニング(例えば,あるFLOPしきい値を超えるトレーニング)と未許可のデータセンタの2種類の潜在的な違反を検出するための10の検証方法を検討する。
検証方法は3つのカテゴリに分けられる。
(a)国家技術手段(疑わしい非従属国からのアクセスを極力必要としない方法)
ロ アクセス依存方法(不正行為の疑いのある国家の承認を必要とする方法)及び
(c) ハードウェアに依存した手法(高度なハードウェアに関する規則を必要とする手法)。
各検証手法について, 記述, 過去の事例, 回避技術について述べる。
我々は、国際AIガバナンス協定の検証と実施に関する今後の業務に対する勧告を提供することで、締めくくります。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An FDA for AI? Pitfalls and Plausibility of Approval Regulation for Frontier Artificial Intelligence [0.0]
我々は、フロンティアAIの規制に対する承認規制、すなわち、実験的なミニマと、その実験で部分的にまたは完全に条件付けられた政府のライセンスとを組み合わせた製品の適用性について検討する。
承認規制が単に適用されたとしても、フロンティアAIのリスクには不適当であると考える理由はいくつかある。
規制開発における政策学習と実験の役割を強調して締めくくる。
論文 参考訳(メタデータ) (2024-08-01T17:54:57Z) - An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Position Paper: Technical Research and Talent is Needed for Effective AI Governance [0.0]
我々は、EU、米国、中国の公共機関が発行する政策文書を調査する。
我々は、提案された政策行動の実施に必要な技術的要件と、現在の技術状況とを、特定の領域で切り離すことを強調します。
我々の分析は、AIガバナンスにおけるAI/ML研究コミュニティのより緊密な統合を呼び起こします。
論文 参考訳(メタデータ) (2024-06-11T06:32:28Z) - How VADER is your AI? Towards a definition of artificial intelligence
systems appropriate for regulation [41.94295877935867]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Learning Transferable Conceptual Prototypes for Interpretable
Unsupervised Domain Adaptation [79.22678026708134]
本稿では,Transferable Prototype Learning (TCPL) という,本質的に解釈可能な手法を提案する。
この目的を達成するために、ソースドメインからターゲットドメインにカテゴリの基本概念を転送する階層的なプロトタイプモジュールを設計し、基礎となる推論プロセスを説明するためにドメイン共有プロトタイプを学習する。
総合的な実験により,提案手法は有効かつ直感的な説明を提供するだけでなく,従来の最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-12T06:36:41Z) - Nuclear Arms Control Verification and Lessons for AI Treaties [0.0]
AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
論文 参考訳(メタデータ) (2023-04-08T23:05:24Z) - Correct-by-Construction Runtime Enforcement in AI -- A Survey [3.509295509987626]
執行とは、実行時のシステムの正式な仕様に関して正しい振る舞いを強制する理論、技術、ツールを指す。
我々は、AIの分野で伝統的に安全がどのように扱われているか、そしてランタイムの執行機関を統合することで、自律学習エージェントの安全性に対するより正式な保証が与えられるかについて議論する。
論文 参考訳(メタデータ) (2022-08-30T17:45:38Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。