論文の概要: Governing AI Beyond the Pretraining Frontier
- arxiv url: http://arxiv.org/abs/2502.15719v1
- Date: Mon, 27 Jan 2025 16:25:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 04:52:14.182728
- Title: Governing AI Beyond the Pretraining Frontier
- Title(参考訳): プレトレーニングフロンティアを越えてAIを統治する
- Authors: Nicholas A. Caputo,
- Abstract要約: 今年は、米国、欧州連合、英国、中国を含む世界中の司法管轄区域が、フロンティアAIを規定する法律を制定または改正する予定である。
しかし、この「事前訓練パラダイム」が壁を突き抜け、主要なAI企業が代替アプローチに転換していることを示す証拠が増えている。
このエッセイは、これらの課題を特定し、規制のために進む新たな道を指し示そうとしている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This year, jurisdictions worldwide, including the United States, the European Union, the United Kingdom, and China, are set to enact or revise laws governing frontier AI. Their efforts largely rely on the assumption that increasing model scale through pretraining is the path to more advanced AI capabilities. Yet growing evidence suggests that this "pretraining paradigm" may be hitting a wall and major AI companies are turning to alternative approaches, like inference-time "reasoning," to boost capabilities instead. This paradigm shift presents fundamental challenges for the frontier AI governance frameworks that target pretraining scale as a key bottleneck useful for monitoring, control, and exclusion, threatening to undermine this new legal order as it emerges. This essay seeks to identify these challenges and point to new paths forward for regulation. First, we examine the existing frontier AI regulatory regime and analyze some key traits and vulnerabilities. Second, we introduce the concept of the "pretraining frontier," the capabilities threshold made possible by scaling up pretraining alone, and demonstrate how it could make the regulatory field more diffuse and complex and lead to new forms of competition. Third, we lay out a regulatory approach that focuses on increasing transparency and leveraging new natural technical bottlenecks to effectively oversee changing frontier AI development while minimizing regulatory burdens and protecting fundamental rights. Our analysis provides concrete mechanisms for governing frontier AI systems across diverse technical paradigms, offering policymakers tools for addressing both current and future regulatory challenges in frontier AI.
- Abstract(参考訳): 今年は、米国、欧州連合、英国、中国を含む世界中の司法管轄区域が、フロンティアAIを規定する法律を制定または改正する予定である。
彼らの取り組みは、事前トレーニングによるモデルスケールの増加が、より高度なAI能力への道筋である、という前提に大きく依存している。
しかし、この「事前トレーニングのパラダイム」が壁を突き抜けているという証拠が増大し、主要なAI企業が代わりに、推論タイムの「推論」のような代替アプローチに目を向けている。
このパラダイムシフトは、事前トレーニングスケールを監視、制御、排除に有用な重要なボトルネックとしてターゲットとする、フロンティアAIガバナンスフレームワークの基本的な課題を示し、新たな法的秩序を台無しにする恐れがある。
このエッセイは、これらの課題を特定し、規制のために進む新たな道を指し示そうとしている。
まず、既存のフロンティアAI規制体制を調べ、いくつかの重要な特徴と脆弱性を分析します。
第二に、「事前訓練フロンティア」という概念を導入し、事前訓練のみをスケールアップすることで可能な能力しきい値を導入し、規制分野をより拡散し複雑にし、新たな競争形態へと導く方法について実証する。
第3に、透明性の向上と新たな自然技術的ボトルネックを活用することに焦点を当てた規制アプローチを策定し、規制の負担を最小化し、基本的権利を保護するとともに、フロンティアAI開発を効果的に監視する。
我々の分析は、さまざまな技術的パラダイムにわたるフロンティアAIシステムを管理するための具体的なメカニズムを提供し、フロンティアAIの現在および将来の規制課題に対処するための政策立案者ツールを提供します。
関連論文リスト
- Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity [0.0]
本稿では,サイバーセキュリティにおける人工知能の統合によって引き起こされる倫理的・規制上の課題について批判的に考察する。
我々は、1940年代の理論的議論から、欧州連合のAI法のような最近のグローバルなフレームワークの実装に至るまで、AI規制の歴史的発展を辿った。
バイアス、透明性、説明責任、プライバシ、人間の監視といった倫理的な懸念は、AI駆動のサイバーセキュリティシステムに影響を及ぼすとともに、深く調査されている。
論文 参考訳(メタデータ) (2025-01-15T18:17:37Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - An FDA for AI? Pitfalls and Plausibility of Approval Regulation for Frontier Artificial Intelligence [0.0]
我々は、フロンティアAIの規制に対する承認規制、すなわち、実験的なミニマと、その実験で部分的にまたは完全に条件付けられた政府のライセンスとを組み合わせた製品の適用性について検討する。
承認規制が単に適用されたとしても、フロンティアAIのリスクには不適当であると考える理由はいくつかある。
規制開発における政策学習と実験の役割を強調して締めくくる。
論文 参考訳(メタデータ) (2024-08-01T17:54:57Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - AI Regulation in Europe: From the AI Act to Future Regulatory Challenges [3.0821115746307663]
両哲学の要素を組み合わせるハイブリッドな規制戦略を論じている。
本稿は、AI法を、AIがもたらす多面的課題に対処するための、先駆的な立法努力として検討する。
同社は、高性能で潜在的にオープンソースなAIシステムへのアクセスを規制するプロトコルを作成するための即時アクションを提唱している。
論文 参考訳(メタデータ) (2023-10-06T07:52:56Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。