論文の概要: Beyond the Binary: A nuanced path for open-weight advanced AI
- arxiv url: http://arxiv.org/abs/2602.19682v1
- Date: Mon, 23 Feb 2026 10:26:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.769214
- Title: Beyond the Binary: A nuanced path for open-weight advanced AI
- Title(参考訳): バイナリを超えて - オープンウェイトな高度なAIのためのニュアンスな道
- Authors: Bengüsu Özcan, Alex Petropoulos, Max Reddel,
- Abstract要約: オープンウェイトAIモデル(Open-weight Advanced AI Model)は、パラメータが自由にダウンロードおよび適応できるシステムである。
このレポートは、'オープン'と'クローズ'のAIのバイナリフレーミングを越えている。
開発者や司法機関間での安全性の実践には大きな違いがある。
本稿では,厳密なリスクアセスメントによって開放性が決定され,安全性が実証されたモデルリリースに対して,階層的かつ安全性に配慮したアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-weight advanced AI models -- systems whose parameters are freely available for download and adaptation -- are reshaping the global AI landscape. As these models rapidly close the performance gap with closed alternatives, they enable breakthrough research and broaden access to powerful tools. However, once released, they cannot be recalled, and their built-in safeguards can be bypassed through fine-tuning or jailbreaking, posing risks that current governance frameworks are not equipped to address. This report moves beyond the binary framing of ``open'' versus ``closed'' AI. We assess the current landscape of open-weight advanced AI, examining technical capabilities, risk profiles, and regulatory responses across the European Union, United States, China, the United Kingdom, and international forums. We find significant disparities in safety practices across developers and jurisdictions, with no commonly adopted standards for determining when or how advanced models should be released openly. We propose a tiered, safety-anchored approach to model release, where openness is determined by rigorous risk assessment and demonstrated safety rather than ideology or commercial pressure. We outline actionable recommendations for developers, evaluators, standard-setters, and policymakers to enable responsible openness while investing in technical safeguards and societal preparedness.
- Abstract(参考訳): オープンウェイトな高度なAIモデル — ダウンロードと適応のために自由に利用できるパラメータを持つシステム — は、グローバルAIの展望を変えようとしている。
これらのモデルがクローズドな代替品とパフォーマンスのギャップを急速に埋めるにつれて、画期的な研究を可能にし、強力なツールへのアクセスを拡大します。
しかし、一旦リリースされると、それらはリコールされず、そのビルトインされたセーフガードは微調整や脱獄によってバイパスされ、現在のガバナンスフレームワークが対応できないリスクを生じさせる。
このレポートは、‘open’対‘closed’AIのバイナリフレーミングを越えている。
我々は、欧州連合、米国、中国、英国、国際フォーラムにおける技術的能力、リスクプロファイル、規制対応など、オープンウェイトな先進的AIの現在の状況を評価します。
開発者や管轄区域間での安全性の実践には大きな違いがあり、いつ、どのように高度なモデルを公開するかを決定するための標準が一般的に採用されていない。
本稿では,厳密なリスク評価によって開放性を判断し,イデオロギーや商業的圧力よりも安全性を実証する,モデルリリースに対するタイred,safe-anchoredアプローチを提案する。
我々は、技術的な安全と社会的準備に投資しながら責任あるオープン性を実現するために、開発者、評価者、標準設定者、政策立案者に対して実行可能なレコメンデーションを概説する。
関連論文リスト
- Frontier AI Auditing: Toward Rigorous Third-Party Assessment of Safety and Security Practices at Leading AI Companies [57.521647436515785]
私たちはフロンティアAIの監査を、フロンティアAI開発者の安全とセキュリティに関する主張の厳格な第三者による検証として定義しています。
本稿では,AI保証レベル(AAL-1からAAL-4)について紹介する。
論文 参考訳(メタデータ) (2026-01-16T18:44:09Z) - Mitigating Cyber Risk in the Age of Open-Weight LLMs: Policy Gaps and Technical Realities [0.0]
オープンウェイト汎用AI(GPAI)モデルには大きなメリットがあるが、重大なサイバーセキュリティリスクも伴う。
本稿では、オープンウェイトAIリリースによって拡大した、マルウェア開発とソーシャルエンジニアリングの強化を含む、特定の脅威を分析する。
本稿では,モデル全体ではなく,特定のハイリスク機能の評価と制御に重点を置く経路を提案する。
論文 参考訳(メタデータ) (2025-05-21T11:35:52Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Open-Sourcing Highly Capable Foundation Models: An evaluation of risks,
benefits, and alternative methods for pursuing open-source objectives [6.575445633821399]
AIラボをオープンソースにするか、あるいはモデルへのアクセスを制限するという最近の決定は、議論を巻き起こした。
本稿では,高機能基盤モデルのオープンソース化のリスクとメリットについて考察する。
論文 参考訳(メタデータ) (2023-09-29T17:03:45Z) - Frontier AI Regulation: Managing Emerging Risks to Public Safety [15.85618115026625]
脆弱なAI」モデルは、公共の安全に深刻なリスクをもたらすのに十分な危険能力を持つ可能性がある。
業界の自己規制は重要な第一歩です。
安全基準の最初のセットを提案する。
論文 参考訳(メタデータ) (2023-07-06T17:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。