論文の概要: Verification methods for international AI agreements
- arxiv url: http://arxiv.org/abs/2408.16074v1
- Date: Wed, 28 Aug 2024 18:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-30 17:43:40.861308
- Title: Verification methods for international AI agreements
- Title(参考訳): 国際AI協定の検証方法
- Authors: Akash R. Wasil, Tom Reed, Jack William Miller, Peter Barnett,
- Abstract要約: 潜在的な2種類の違反を検出できる10の検証方法を検討した。
各検証手法について, 記述, 過去の事例, 回避技術について述べる。
- 参考スコア(独自算出の注目度): 1.6874375111244329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: What techniques can be used to verify compliance with international agreements about advanced AI development? In this paper, we examine 10 verification methods that could detect two types of potential violations: unauthorized AI training (e.g., training runs above a certain FLOP threshold) and unauthorized data centers. We divide the verification methods into three categories: (a) national technical means (methods requiring minimal or no access from suspected non-compliant nations), (b) access-dependent methods (methods that require approval from the nation suspected of unauthorized activities), and (c) hardware-dependent methods (methods that require rules around advanced hardware). For each verification method, we provide a description, historical precedents, and possible evasion techniques. We conclude by offering recommendations for future work related to the verification and enforcement of international AI governance agreements.
- Abstract(参考訳): 高度なAI開発に関する国際協定の遵守を検証するために、どのようなテクニックが使えるのか?
本稿では,未認可のAIトレーニング(例えば,あるFLOPしきい値を超えるトレーニング)と未許可のデータセンタの2種類の潜在的な違反を検出するための10の検証方法を検討する。
検証方法は3つのカテゴリに分けられる。
(a)国家技術手段(疑わしい非従属国からのアクセスを極力必要としない方法)
ロ アクセス依存方法(不正行為の疑いのある国家の承認を必要とする方法)及び
(c) ハードウェアに依存した手法(高度なハードウェアに関する規則を必要とする手法)。
各検証手法について, 記述, 過去の事例, 回避技術について述べる。
我々は、国際AIガバナンス協定の検証と実施に関する今後の業務に対する勧告を提供することで、締めくくります。
関連論文リスト
- Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Position Paper: Technical Research and Talent is Needed for Effective AI Governance [0.0]
我々は、EU、米国、中国の公共機関が発行する政策文書を調査する。
我々は、提案された政策行動の実施に必要な技術的要件と、現在の技術状況とを、特定の領域で切り離すことを強調します。
我々の分析は、AIガバナンスにおけるAI/ML研究コミュニティのより緊密な統合を呼び起こします。
論文 参考訳(メタデータ) (2024-06-11T06:32:28Z) - A Path Towards Legal Autonomy: An interoperable and explainable approach to extracting, transforming, loading and computing legal information using large language models, expert systems and Bayesian networks [2.2192488799070444]
法的な自律性は、開発者やデプロイ者、ユーザといったAIアクターに制約を課すこと、あるいはAIエージェントが環境に与える影響の範囲と範囲に制約を課すことによって達成できる。
後者のアプローチでは、AI駆動デバイスに関する既存のルールを、それらのデバイスを制御するAIエージェントのソフトウェアにエンコードする。
このようなアプローチの有効性は、説明可能かつ法的に相互運用可能な法的情報を抽出、ロード、変換、計算する手法を必要とするため、これは課題である。
論文 参考訳(メタデータ) (2024-03-27T13:12:57Z) - How VADER is your AI? Towards a definition of artificial intelligence
systems appropriate for regulation [41.94295877935867]
最近のAI規制提案では、ICT技術、アプローチ、AIではないシステムに影響を与えるAI定義が採用されている。
本稿では,AI定義の規制(VADER)が適切に定義されているかを評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-07T17:41:15Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - Learning Transferable Conceptual Prototypes for Interpretable
Unsupervised Domain Adaptation [79.22678026708134]
本稿では,Transferable Prototype Learning (TCPL) という,本質的に解釈可能な手法を提案する。
この目的を達成するために、ソースドメインからターゲットドメインにカテゴリの基本概念を転送する階層的なプロトタイプモジュールを設計し、基礎となる推論プロセスを説明するためにドメイン共有プロトタイプを学習する。
総合的な実験により,提案手法は有効かつ直感的な説明を提供するだけでなく,従来の最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-10-12T06:36:41Z) - Nuclear Arms Control Verification and Lessons for AI Treaties [0.0]
AIによるセキュリティリスクは、この技術が利用できるという国際的な合意を動機付けている。
この研究は、想定されるケースは核兵器の制御でうまく管理されたレベルに縮小されることを示唆している。
論文 参考訳(メタデータ) (2023-04-08T23:05:24Z) - Correct-by-Construction Runtime Enforcement in AI -- A Survey [3.509295509987626]
執行とは、実行時のシステムの正式な仕様に関して正しい振る舞いを強制する理論、技術、ツールを指す。
我々は、AIの分野で伝統的に安全がどのように扱われているか、そしてランタイムの執行機関を統合することで、自律学習エージェントの安全性に対するより正式な保証が与えられるかについて議論する。
論文 参考訳(メタデータ) (2022-08-30T17:45:38Z) - A2Log: Attentive Augmented Log Anomaly Detection [53.06341151551106]
異常検出は、ITサービスの信頼性とサービス性にとってますます重要になる。
既存の教師なし手法は、適切な決定境界を得るために異常な例を必要とする。
我々は,異常判定と異常判定の2段階からなる教師なし異常検出手法であるA2Logを開発した。
論文 参考訳(メタデータ) (2021-09-20T13:40:21Z) - A Methodology for Creating AI FactSheets [67.65802440158753]
本稿では、FactSheetsと呼ぶAIドキュメントの形式を作るための方法論について述べる。
方法論の各ステップの中で、検討すべき問題と探求すべき質問について説明する。
この方法論は、透明なAIドキュメントの採用を加速する。
論文 参考訳(メタデータ) (2020-06-24T15:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。