論文の概要: Defending Compute Thresholds Against Legal Loopholes
- arxiv url: http://arxiv.org/abs/2502.00003v1
- Date: Fri, 03 Jan 2025 12:07:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-09 06:44:32.247417
- Title: Defending Compute Thresholds Against Legal Loopholes
- Title(参考訳): 法的な抜け穴に対するコンピュータの留意点
- Authors: Matteo Pistillo, Pablo Villalobos,
- Abstract要約: 既存のAIに関する法的フレームワークは、潜在的に危険なAIモデルを特定するプロキシとして、計算しきい値のトレーニングに依存している。
モデル能力の保存や増大を図りながら、トレーニング計算の使用量を減らし得る強化手法について検討する。
これらの能力向上と計算省力化技術は、既存のトレーニング計算しきい値の法的な抜け穴となる可能性がある。
- 参考スコア(独自算出の注目度): 0.7234862895932991
- License:
- Abstract: Existing legal frameworks on AI rely on training compute thresholds as a proxy to identify potentially-dangerous AI models and trigger increased regulatory attention. In the United States, Section 4.2(a) of Executive Order 14110 instructs the Secretary of Commerce to require extensive reporting from developers of AI models above a certain training compute threshold. In the European Union, Article 51 of the AI Act establishes a presumption that AI models above a certain compute threshold have high impact capabilities and hence pose systemic risk, thus subjecting their developers to several obligations including capability evaluations, reporting, and incident monitoring. In this paper, we examine some enhancement techniques that are capable of decreasing training compute usage while preserving, or even increasing, model capabilities. Since training compute thresholds rely on training compute as a metric and trigger for increased regulatory attention, these capability-enhancing and compute-saving techniques could constitute a legal loophole to existing training compute thresholds. In particular, we concentrate on four illustrative techniques (fine-tuning, model reuse, model expansion, and above compute-optimal inference compute) with the goal of furthering the conversation about their implications on training compute thresholds as a legal mechanism and advancing policy recommendations that could address the relevant legal loopholes.
- Abstract(参考訳): 既存のAIに関する法的フレームワークは、潜在的に危険なAIモデルを特定し、規制の注意を喚起するためのプロキシとして、計算しきい値のトレーニングに依存している。
アメリカ合衆国では、14110年執行令第4.2(a)節は、商務省に対し、ある訓練計算しきい値を超えるAIモデルの開発者からの広範な報告を要求するよう指示している。
欧州連合において、AI法第51条は、ある計算しきい値を超えるAIモデルは高い影響能力を持ち、従ってシステム的リスクを生じさせると仮定し、開発者に対して能力評価、報告、インシデント監視を含むいくつかの義務を負わせる。
本稿では,モデル能力の維持や向上を図りながら,トレーニング計算使用量を削減できる拡張手法について検討する。
トレーニング計算しきい値は、トレーニング計算をメートル法として依存し、規制の注意を増す引き金となるため、これらの能力向上と計算節約技術は、既存のトレーニング計算しきい値の法的な抜け穴となる可能性がある。
特に、我々は、計算しきい値の法的なメカニズムとしてのトレーニングと、関連する法的な抜け穴に対処可能な政策推奨の推進に関する議論をさらに進めることを目的として、4つの図解的手法(ファインチューニング、モデル再利用、モデル拡張、上記の計算最適推論計算)に集中する。
関連論文リスト
- A Comprehensive Framework for Reliable Legal AI: Combining Specialized Expert Systems and Adaptive Refinement [0.0]
本稿では,専門家システムと知識に基づくアーキテクチャを組み合わせた新しい枠組みを提案する。
このフレームワークは特殊なモジュールを利用し、それぞれが特定の法的領域に焦点を当て、構造化された運用ガイドラインを取り入れて意思決定を強化する。
提案されたアプローチは、既存のAIモデルよりも大幅に改善され、法的タスクのパフォーマンスが向上し、よりアクセシブルで手頃な価格の法律サービスを提供するスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-12-29T14:00:11Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - The Dilemma of Uncertainty Estimation for General Purpose AI in the EU AI Act [6.9060054915724]
AI法は、欧州連合全体のAIシステムの規制である。
我々は、不確実性推定が、実世界でモデルをデプロイするために必要なコンポーネントであるべきだと論じる。
論文 参考訳(メタデータ) (2024-08-20T23:59:51Z) - Training Compute Thresholds: Features and Functions in AI Regulation [0.7234862895932991]
米国とEUのレギュレータは、トレーニング計算に基づくしきい値を使用して、大規模社会被害のリスクを引き起こす可能性のあるGPAIモデルを特定している。
現在、トレーニング計算は、規制の監視とさらなる精査に値するGPAIモデルを特定するのに最も適した指標である、と我々は主張する。
GPAI技術と市場構造が進化するにつれて、規制当局は計算しきい値を更新し、他のメトリクスを規制審査プロセスに補完する必要がある。
論文 参考訳(メタデータ) (2024-05-17T14:10:24Z) - Governing Through the Cloud: The Intermediary Role of Compute Providers in AI Regulation [14.704747149179047]
計算プロバイダは、AI開発とデプロイメントに関連する法的義務と倫理的責任を持つべきだ、と我々は主張する。
コンピューティングプロバイダは,4つの重要な能力を通じて,規制エコシステムにおいて重要な役割を果たすことができます。
論文 参考訳(メタデータ) (2024-03-13T13:08:16Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Oversight for Frontier AI through a Know-Your-Customer Scheme for
Compute Providers [0.8547032097715571]
Know-Your-Customer (KYC) は、銀行部門がクライアントの識別と検証のために開発した標準である。
KYCは、既存の輸出管理におけるフロンティアAI開発とクローズループの監視を強化するメカニズムを提供するかもしれない。
AIチップの購入を制限する戦略とは異なり、計算へのデジタルアクセスを規制することは、より正確な制御を提供する。
論文 参考訳(メタデータ) (2023-10-20T16:17:29Z) - GAT: Guided Adversarial Training with Pareto-optimal Auxiliary Tasks [73.88590165742721]
本稿では,限られた訓練データの下で補助的なタスクを活用する新しい対人訓練手法を提案する。
本手法は, 対戦学習の最小値最適化において, シングルタスクモデルをマルチタスクモデルに拡張する。
我々は、ガイド付きマルチタスク学習が、モデルロバスト性の境界をさらに推し進めるために、実践的で有望な方法であることを実証する。
論文 参考訳(メタデータ) (2023-02-06T16:23:24Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。