論文の概要: Internal Deployment Gaps in AI Regulation
- arxiv url: http://arxiv.org/abs/2601.08005v2
- Date: Tue, 20 Jan 2026 20:50:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 14:56:59.967411
- Title: Internal Deployment Gaps in AI Regulation
- Title(参考訳): AI規制における内部展開ギャップ
- Authors: Joe Kwon, Stephen Casper,
- Abstract要約: 企業が自社組織に高度に能力のあるシステムをデプロイする場合に、ハイステークなアプリケーションが内部で発生する可能性がある。
本稿では、2025年の米国と欧州連合におけるフロンティアAI規制が、内部展開をどのように扱うかを検討する。
- 参考スコア(独自算出の注目度): 4.575084788651121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Frontier AI regulations primarily focus on systems deployed to external users, where deployment is more visible and subject to outside scrutiny. However, high-stakes applications can occur internally when companies deploy highly capable systems within their own organizations, such as for automating R&D, accelerating critical business processes, and handling sensitive proprietary data. This paper examines how frontier AI regulations in the United States and European Union in 2025 handle internal deployment. We identify three gaps that could cause internally-deployed systems to evade intended oversight: (1) scope ambiguity that allows internal systems to evade regulatory obligations, (2) point-in-time compliance assessments that fail to capture the continuous evolution of internal systems, and (3) information asymmetries that subvert regulatory awareness and oversight. We then analyze why these gaps persist, examining tensions around measurability, incentives, and information access. Finally, we map potential approaches to address them and their associated tradeoffs. By understanding these patterns, we hope that policy choices around internally deployed AI systems can be made deliberately rather than incidentally.
- Abstract(参考訳): Frontier AIの規制は主に、外部のユーザにデプロイされるシステムに重点を置いている。
しかし、R&Dの自動化、重要なビジネスプロセスの加速、機密性の高いプロプライエタリなデータの処理など、企業が自社組織内で高度な能力を持つシステムをデプロイする時に、高いスループットのアプリケーションが内部で発生する可能性がある。
本稿では、2025年の米国と欧州連合におけるフロンティアAI規制が、内部展開をどのように扱うかを検討する。
我々は,(1)内部システムが規制義務を回避できる範囲の曖昧さ,(2)内部システムの継続的な進化を捉えないポイント・イン・タイム・コンプライアンス・アセスメント,(3)規制の意識と監視を抑える情報アシンメトリーの3つのギャップを,内務省が意図した監視を回避できる可能性を見出した。
そして、これらのギャップが持続する理由を分析し、測定可能性、インセンティブ、情報アクセスに関する緊張を調べます。
最後に、潜在的なアプローチをそれらとその関連するトレードオフにマップする。
これらのパターンを理解することで、内部にデプロイされたAIシステムに関するポリシーの選択を、偶然ではなく意図的に行うことができることを願っています。
関連論文リスト
- How frontier AI companies could implement an internal audit function [0.0]
内部監査は、安全管理を強化する上で中心的な役割を果たす可能性がある。
本稿では、フロンティアAI開発者に有意義な保証を提供するために、内部監査機能を設計する方法について検討する。
論文 参考訳(メタデータ) (2025-12-16T20:36:58Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AI Behind Closed Doors: a Primer on The Governance of Internal Deployment [33.99253912746621]
内部デプロイメントは、フロンティアAIシステムによるメリットとリスクの主な源泉である。
このレポートは、内部デプロイメントのガバナンスに関する会話を予備して、この欠如に対処することを目的としている。
そこでは,AI研究開発パイプラインに対するAIシステムの内部適用による制御の喪失に関連するリスクについて論じる。
論文 参考訳(メタデータ) (2025-04-16T15:21:13Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - How Could Generative AI Support Compliance with the EU AI Act? A Review for Safe Automated Driving Perception [4.075971633195745]
ディープニューラルネットワーク(DNN)は、自動運転車の知覚機能の中心となっている。
EU(EU)人工知能(AI)法は、AIシステムの厳格な規範と標準を確立することによって、これらの課題に対処することを目的としている。
本稿では、DNNに基づく知覚システムに関するEU AI法から生じる要件を要約し、ADにおける既存の生成AIアプリケーションを体系的に分類する。
論文 参考訳(メタデータ) (2024-08-30T12:01:06Z) - A Blueprint for Auditing Generative AI [0.9999629695552196]
生成AIシステムは創発的な能力を示し、幅広い下流タスクに適応できる。
既存の監査手順は、生成的AIシステムによって引き起こされるガバナンスの課題に対処できない。
本稿では、生成AIシステムの設計と普及を行う技術提供者のガバナンス監査、事前学習後の生成AIシステムのモデル監査、生成AIシステムに基づくアプリケーションのアプリケーション監査という3層的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-07-07T11:56:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。