論文の概要: Governing Through the Cloud: The Intermediary Role of Compute Providers in AI Regulation
- arxiv url: http://arxiv.org/abs/2403.08501v2
- Date: Tue, 26 Mar 2024 06:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 21:34:22.539937
- Title: Governing Through the Cloud: The Intermediary Role of Compute Providers in AI Regulation
- Title(参考訳): クラウド経由のGoverning:AI規制におけるコンピュータプロバイダの役割
- Authors: Lennart Heim, Tim Fist, Janet Egan, Sihao Huang, Stephen Zekany, Robert Trager, Michael A Osborne, Noa Zilberman,
- Abstract要約: 計算プロバイダは、AI開発とデプロイメントに関連する法的義務と倫理的責任を持つべきだ、と我々は主張する。
コンピューティングプロバイダは,4つの重要な能力を通じて,規制エコシステムにおいて重要な役割を果たすことができます。
- 参考スコア(独自算出の注目度): 14.704747149179047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As jurisdictions around the world take their first steps toward regulating the most powerful AI systems, such as the EU AI Act and the US Executive Order 14110, there is a growing need for effective enforcement mechanisms that can verify compliance and respond to violations. We argue that compute providers should have legal obligations and ethical responsibilities associated with AI development and deployment, both to provide secure infrastructure and to serve as intermediaries for AI regulation. Compute providers can play an essential role in a regulatory ecosystem via four key capacities: as securers, safeguarding AI systems and critical infrastructure; as record keepers, enhancing visibility for policymakers; as verifiers of customer activities, ensuring oversight; and as enforcers, taking actions against rule violations. We analyze the technical feasibility of performing these functions in a targeted and privacy-conscious manner and present a range of technical instruments. In particular, we describe how non-confidential information, to which compute providers largely already have access, can provide two key governance-relevant properties of a computational workload: its type-e.g., large-scale training or inference-and the amount of compute it has consumed. Using AI Executive Order 14110 as a case study, we outline how the US is beginning to implement record keeping requirements for compute providers. We also explore how verification and enforcement roles could be added to establish a comprehensive AI compute oversight scheme. We argue that internationalization will be key to effective implementation, and highlight the critical challenge of balancing confidentiality and privacy with risk mitigation as the role of compute providers in AI regulation expands.
- Abstract(参考訳): 世界中の司法機関が、EU AI ActやUS Executive Order 14110など、最も強力なAIシステムを規制するための第一歩を踏み出す中で、コンプライアンスの検証と違反への対応を可能にする効果的な執行メカニズムの必要性が高まっている。
計算プロバイダは、セキュアなインフラストラクチャの提供と、AI規制の仲介を行うために、AI開発とデプロイメントに関連する法的義務と倫理的責任を持つべきだ、と私たちは主張する。
コンピュータプロバイダーは、セキュリティ者として、AIシステムとクリティカルインフラストラクチャを保護し、記録保持者として、政策立案者に対する可視性を高め、顧客活動の検証として、監視を確実にし、執行機関として、規則違反に対して行動する4つの重要な能力を通じて、規制エコシステムにおいて重要な役割を果たすことができる。
本研究では,これらの機能を対象的かつプライバシを重視した方法で実行可能にする技術的実現可能性を分析し,さまざまな技術機器を提示する。
特に、計算プロバイダがすでにアクセスしている機密情報によって、計算ワークロードの2つの重要なガバナンス関連特性 – タイプ-eg、大規模トレーニング、推論 – と、消費した計算量 – を提供する方法について説明する。
AIエグゼクティブオーダー14110をケーススタディとして、我々は、米国がコンピュータプロバイダのレコード保持要件の実装を開始した経緯を概説する。
また、包括的なAI計算監視スキームを確立するために、検証と執行の役割をどのように追加できるかについても検討する。
我々は、国際化が効果的な実装の鍵であり、AI規制における計算プロバイダーの役割が拡大するにつれて、機密性とプライバシとリスク軽減とのバランスをとるという重要な課題を強調します。
関連論文リスト
- Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - AI Cards: Towards an Applied Framework for Machine-Readable AI and Risk Documentation Inspired by the EU AI Act [2.1897070577406734]
その重要性にもかかわらず、AI法に沿ったAIとリスクドキュメントの作成を支援するための標準やガイドラインが欠如している。
提案するAIカードは,AIシステムの意図した使用を表現するための,新しい総合的なフレームワークである。
論文 参考訳(メタデータ) (2024-06-26T09:51:49Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Visibility into AI Agents [9.067567737098594]
AIエージェントに対する商業的、科学的、政府的、個人的活動の委譲の増加は、既存の社会的リスクを悪化させる可能性がある。
エージェント識別子,リアルタイム監視,アクティビティログという,AIエージェントの視認性を高めるための3つの尺度を評価した。
論文 参考訳(メタデータ) (2024-01-23T23:18:33Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Oversight for Frontier AI through a Know-Your-Customer Scheme for
Compute Providers [0.8547032097715571]
Know-Your-Customer (KYC) は、銀行部門がクライアントの識別と検証のために開発した標準である。
KYCは、既存の輸出管理におけるフロンティアAI開発とクローズループの監視を強化するメカニズムを提供するかもしれない。
AIチップの購入を制限する戦略とは異なり、計算へのデジタルアクセスを規制することは、より正確な制御を提供する。
論文 参考訳(メタデータ) (2023-10-20T16:17:29Z) - Functional requirements to mitigate the Risk of Harm to Patients from
Artificial Intelligence in Healthcare [0.0]
本研究は、医療目的に関連するリスクを軽減するために、AIシステムが実装可能な14の機能要件を提案する。
ここでの私たちの意図は、将来のEU規制フレームワークに準拠した患者に、継続的なパフォーマンスとAIシステムの使用を保証するために、技術的なソリューションの特定のハイレベルな仕様を提供することです。
論文 参考訳(メタデータ) (2023-09-19T08:37:22Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。