論文の概要: Evaluating the Critical Risks of Amazon's Nova Premier under the Frontier Model Safety Framework
- arxiv url: http://arxiv.org/abs/2507.06260v1
- Date: Mon, 07 Jul 2025 13:33:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.323819
- Title: Evaluating the Critical Risks of Amazon's Nova Premier under the Frontier Model Safety Framework
- Title(参考訳): Frontier Model Safety Frameworkの下でのAmazonのNova Premierの臨界リスクの評価
- Authors: Satyapriya Krishna, Ninareh Mehrabi, Abhinav Mohanty, Matteo Memelli, Vincent Ponzo, Payal Motwani, Rahul Gupta,
- Abstract要約: Nova PremierはAmazonで最も有能なマルチモーダルファンデーションモデルである。
テキスト、画像、動画を100万件のコンテキストウィンドウで処理する。
我々は,ノバス・プレミアの臨界リスクプロファイルの総合評価を行った。
- 参考スコア(独自算出の注目度): 15.122109053923817
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nova Premier is Amazon's most capable multimodal foundation model and teacher for model distillation. It processes text, images, and video with a one-million-token context window, enabling analysis of large codebases, 400-page documents, and 90-minute videos in a single prompt. We present the first comprehensive evaluation of Nova Premier's critical risk profile under the Frontier Model Safety Framework. Evaluations target three high-risk domains -- Chemical, Biological, Radiological & Nuclear (CBRN), Offensive Cyber Operations, and Automated AI R&D -- and combine automated benchmarks, expert red-teaming, and uplift studies to determine whether the model exceeds release thresholds. We summarize our methodology and report core findings. Based on this evaluation, we find that Nova Premier is safe for public release as per our commitments made at the 2025 Paris AI Safety Summit. We will continue to enhance our safety evaluation and mitigation pipelines as new risks and capabilities associated with frontier models are identified.
- Abstract(参考訳): ノヴァ・プレミアはアマゾンで最も有能なマルチモーダル基礎モデルであり、モデル蒸留の教師である。
テキスト、画像、ビデオを100万件のコンテキストウィンドウで処理し、大きなコードベース、400ページのドキュメント、90分のビデオをひとつのプロンプトで分析できる。
本稿では,フロンティア・モデル・セーフティ・フレームワーク(Frontier Model Safety Framework)の下で,ノバス・プレミアの臨界リスクプロファイルの総合評価を行った。
評価対象は、ケミカル、バイオロジカル、ラジオロジカル、原子力(CBRN)、攻撃的サイバーオペレーション、自動AIR&Dの3つのハイリスクドメインで、自動ベンチマーク、エキスパートのリピート、アップリフトスタディを組み合わせて、モデルがリリースしきい値を超えたかどうかを判断する。
方法論を要約し、中核的な発見を報告する。
この評価に基づいて、2025年のParis AI Safety Summitで行ったコミットメントに従って、Nova Premierはパブリックリリースに対して安全であることが分かりました。
我々は、フロンティアモデルに関連する新たなリスクと能力が特定されるにつれて、安全評価と緩和パイプラインの強化を続けます。
関連論文リスト
- FORTRESS: Frontier Risk Evaluation for National Security and Public Safety [5.544163262906087]
現在のベンチマークは、国家の安全と公共の安全リスクに対する安全の堅牢性をテストするのに失敗することが多い。
forTRESS:500人の専門家による敵のプロンプトと4-7のバイナリー質問のインスタンスベースのルーリックについて紹介する。
各プロンプト-ルブリックペアは、モデルオーバーリフレクションをテストするための対応する良性バージョンを持つ。
論文 参考訳(メタデータ) (2025-06-17T19:08:02Z) - Towards Evaluating Proactive Risk Awareness of Multimodal Language Models [38.55193215852595]
プロアクティブな安全人工知能(AI)システムは、リアクティブシステムよりもうまく機能する。
PaSBenchは416のマルチモーダルシナリオを通じてこの機能を評価する。
Gemini-2.5-proのようなトップパフォーマーは、71%のイメージと64%のテキスト精度を達成したが、繰り返しトライアルで45-55%のリスクを逃した。
論文 参考訳(メタデータ) (2025-05-23T04:28:47Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - OCCULT: Evaluating Large Language Models for Offensive Cyber Operation Capabilities [0.0]
我々は、実世界の攻撃的サイバー操作の実現とスケーリングに向けたAIの進歩を評価するための新しいアプローチを実証する。
我々は、サイバーセキュリティの専門家が厳格かつ反復可能な測定に貢献できる軽量な運用評価フレームワークであるOCCULTについて詳述する。
私たちは、現実的なサイバー脅威をスケールするためにAIが使用されるリスクが、最近著しく進歩していることに気付きました。
論文 参考訳(メタデータ) (2025-02-18T19:33:14Z) - OpenAI o1 System Card [274.83891368890977]
o1モデルシリーズは、思考の連鎖を用いて推論するために大規模な強化学習で訓練されている。
本報告では,OpenAI o1およびOpenAI o1-miniモデルに対して実施される安全作業の概要について述べる。
論文 参考訳(メタデータ) (2024-12-21T18:04:31Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Evaluating Frontier Models for Dangerous Capabilities [59.129424649740855]
危険な能力」の評価プログラムを導入し、Gemini 1.0モデルで試行する。
評価対象は,(1)説得と騙し,(2)サイバーセキュリティ,(3)自己増殖,(4)自己推論の4分野である。
我々の目標は、将来のモデルに備えて、危険な能力評価の厳格な科学を前進させることです。
論文 参考訳(メタデータ) (2024-03-20T17:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。