論文の概要: Position: Require Frontier AI Labs To Release Small "Analog" Models
- arxiv url: http://arxiv.org/abs/2510.14053v1
- Date: Wed, 15 Oct 2025 19:47:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.599592
- Title: Position: Require Frontier AI Labs To Release Small "Analog" Models
- Title(参考訳): ポジション:フロンティアAI研究所が小さな「アナログ」モデルをリリース
- Authors: Shriyash Upadhyay, Chaithanya Bandi, Narmeen Oozeer, Philip Quirke,
- Abstract要約: 我々は、イノベーションを積極的に推進しながらAIの安全性を保証する代替規制アプローチを議論する。
大規模なAI研究所は、オープンアクセス可能な小さなアナログモデル(スケールダウン版)を公開し、最大のプロプライエタリモデルと同じような訓練を受け、蒸留する。
- 参考スコア(独自算出の注目度): 2.4847319469475626
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Recent proposals for regulating frontier AI models have sparked concerns about the cost of safety regulation, and most such regulations have been shelved due to the safety-innovation tradeoff. This paper argues for an alternative regulatory approach that ensures AI safety while actively promoting innovation: mandating that large AI laboratories release small, openly accessible analog models (scaled-down versions) trained similarly to and distilled from their largest proprietary models. Analog models serve as public proxies, allowing broad participation in safety verification, interpretability research, and algorithmic transparency without forcing labs to disclose their full-scale models. Recent research demonstrates that safety and interpretability methods developed using these smaller models generalize effectively to frontier-scale systems. By enabling the wider research community to directly investigate and innovate upon accessible analogs, our policy substantially reduces the regulatory burden and accelerates safety advancements. This mandate promises minimal additional costs, leveraging reusable resources like data and infrastructure, while significantly contributing to the public good. Our hope is not only that this policy be adopted, but that it illustrates a broader principle supporting fundamental research in machine learning: deeper understanding of models relaxes the safety-innovation tradeoff and lets us have more of both.
- Abstract(参考訳): 近年、フロンティアAIモデルを規制する提案は、安全規制のコストに関する懸念を引き起こしており、そのような規制のほとんどは、安全性と革新のトレードオフのために棚上げされている。
本稿では、AIの安全性を確保しつつ、イノベーションを積極的に推進する代替規制アプローチを提案する。大規模なAI研究所は、最大のプロプライエタリモデルと同じような訓練を受けた、オープンにアクセス可能なアナログモデル(スケールダウンバージョン)を、小規模でリリースすることを強制する。
アナログモデルはパブリックプロキシとして機能し、安全検証、解釈可能性の研究、アルゴリズムの透明性への幅広い参加を可能にする。
近年の研究では、これらの小さなモデルを用いて開発された安全性と解釈可能性の手法が、フロンティアスケールシステムに効果的に一般化されることが示されている。
より広範な研究コミュニティがアクセス可能なアナログを直接調査・革新できるようにすることで、規制負担を大幅に削減し、安全性の向上を加速する。
この委任状は、データやインフラストラクチャといった再利用可能なリソースを活用しながら、公共の利益に大きく貢献する、最小限の追加コストを約束する。
私たちの望みは、このポリシーが採用されるだけでなく、機械学習の基本的な研究を支えるより広範な原則が示されることです。
関連論文リスト
- The Hidden Risks of Large Reasoning Models: A Safety Assessment of R1 [70.94607997570729]
本稿では,OpenAI-o3およびDeepSeek-R1推論モデルの総合的安全性評価を行う。
本研究では, 現実の応用における強靭性を評価するために, ジェイルブレイクやインジェクションなどの敵攻撃に対する感受性について検討する。
論文 参考訳(メタデータ) (2025-02-18T09:06:07Z) - Beyond Benchmarks: On The False Promise of AI Regulation [13.125853211532196]
有効な科学的規制は、観測可能なテスト結果と将来のパフォーマンスを結びつける因果理論を必要とすることを示す。
本研究では,学習データから複雑な統計的パターンを明示的な因果関係なく学習する深層学習モデルにおいて,そのような保証を妨げていることを示す。
論文 参考訳(メタデータ) (2025-01-26T22:43:07Z) - Auction-Based Regulation for Artificial Intelligence [28.86995747151915]
規制当局は、AIの展開が壊れた後に残された安全、偏見、法的な破片をゆっくりと拾い上げている。
本稿では,デバイスに適合したモデルをデプロイする動機付けを確実に行う,オークションベースの規制機構を提案する。
規制入札は,基準規制機構と比較して,コンプライアンス率を20%,参加率を15%向上させることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:57:02Z) - Detectors for Safe and Reliable LLMs: Implementations, Uses, and Limitations [76.19419888353586]
大規模言語モデル(LLM)は、不誠実なアウトプットからバイアスや有害な世代に至るまで、さまざまなリスクを受けやすい。
我々は,様々な害のラベルを提供するコンパクトで容易に構築できる分類モデルである,検出器のライブラリを作成し,展開する取り組みについて述べる。
論文 参考訳(メタデータ) (2024-03-09T21:07:16Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。