論文の概要: Llama-3.1-FoundationAI-SecurityLLM-Reasoning-8B Technical Report
- arxiv url: http://arxiv.org/abs/2601.21051v1
- Date: Wed, 28 Jan 2026 21:15:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.440043
- Title: Llama-3.1-FoundationAI-SecurityLLM-Reasoning-8B Technical Report
- Title(参考訳): Llama-3.1-FoundationAI-SecurityLLM-Reasoning-8B Technical Report
- Authors: Zhuoran Yang, Ed Li, Jianliang He, Aman Priyanshu, Baturay Saglam, Paul Kassianik, Sajana Weerawardhena, Anu Vellore, Blaine Nelson, Neusha Javidnia, Arthur Goldblatt, Fraser Burch, Avi Zohary, Assaf Eisenman, Mahdi Sabbaghi, Supriti Vijay, Rahim Dharssi, Dhruv Kedia, Kojin Oshiba, Yaron Singer, Amin Karbasi,
- Abstract要約: 私たちは、サイバーセキュリティのための初のオープンソースのネイティブ推論モデルであるFoundation-Sec-8B-Reasoningを紹介します。
このモデルは、教師付き微調整(SFT)と検証可能な報酬(RLVR)からの強化学習を組み合わせた2段階のプロセスで訓練される。
- 参考スコア(独自算出の注目度): 48.22833523688154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Foundation-Sec-8B-Reasoning, the first open-source native reasoning model for cybersecurity. Built upon our previously released Foundation-Sec-8B base model (derived from Llama-3.1-8B-Base), the model is trained through a two-stage process combining supervised fine-tuning (SFT) and reinforcement learning from verifiable rewards (RLVR). Our training leverages proprietary reasoning data spanning cybersecurity analysis, instruction-following, and mathematical reasoning. Evaluation across 10 cybersecurity benchmarks and 10 general-purpose benchmarks demonstrates performance competitive with significantly larger models on cybersecurity tasks while maintaining strong general capabilities. The model shows effective generalization on multi-hop reasoning tasks and strong safety performance when deployed with appropriate system prompts and guardrails. This work demonstrates that domain-specialized reasoning models can achieve strong performance on specialized tasks while maintaining broad general capabilities. We release the model publicly at https://huggingface.co/fdtn-ai/Foundation-Sec-8B-Reasoning.
- Abstract(参考訳): 私たちは、サイバーセキュリティのための初のオープンソースのネイティブ推論モデルであるFoundation-Sec-8B-Reasoningを紹介します。
前回リリースしたFoundation-Sec-8Bベースモデル(Llama-3.1-8Bベースから派生したもの)に基づいて、教師付き微調整(SFT)と検証可能な報酬(RLVR)からの強化学習を組み合わせた2段階のプロセスでモデルを訓練する。
私たちのトレーニングでは、サイバーセキュリティ分析、命令フォロー、数学的推論にまたがる独自の推論データを活用しています。
10のサイバーセキュリティベンチマークと10の汎用ベンチマークによる評価は、強力な汎用能力を保ちながら、サイバーセキュリティタスクのかなり大きなモデルとパフォーマンスの競争力を示す。
本モデルでは,マルチホップ推論タスクを効果的に一般化し,適切なシステムプロンプトとガードレールを配置した場合の安全性を向上する。
この研究は、ドメイン特化推論モデルが広範な汎用能力を保ちながら、特定のタスクに対して強い性能を達成できることを実証する。
モデルはhttps://huggingface.co/fdtn-ai/Foundation-Sec-8B-Reasoning.comで公開しています。
関連論文リスト
- Llama-3.1-FoundationAI-SecurityLLM-8B-Instruct Technical Report [23.285449541240325]
汎用サイバーセキュリティ対話に特化したモデルであるFoundation-Sec-8B-Instructをリリースする。
ドメイン固有の知識と命令追従、会話能力、人間の好みとの整合性を組み合わせることで、高品質で関連する応答を生成する。
総合的な評価によると、Foundation-Sec-8B-Instructは、様々なサイバーセキュリティタスクにおいてLlama 3.1-8B-Instructを上回っている。
論文 参考訳(メタデータ) (2025-08-01T20:25:57Z) - Less Data, More Security: Advancing Cybersecurity LLMs Specialization via Resource-Efficient Domain-Adaptive Continuous Pre-training with Minimal Tokens [1.2116854758481395]
ドメイン適応型継続的事前訓練(Domain-Adaptive Continuous Pretraining, DAP)は、大規模言語モデル(LLM)におけるサイバーセキュリティ理解を強化する手法である。
我々は,1億6百万ワードのサイバーセキュリティコーパスを標準,学術文献,その他さまざまな情報源から活用して,デコーダベースの3つのアーキテクチャを適用した。
Llama-3.3-70B-Ins-DAPモデルは、それぞれ0.718、0.933、0.864の最先端のアキュラティを達成した。
論文 参考訳(メタデータ) (2025-06-30T12:59:29Z) - Skywork Open Reasoner 1 Technical Report [51.403686909760914]
提案するSkywork-OR1は,長期チェーン・オブ・ソート(CoT)モデルのための,効果的かつスケーラブルな強化学習(RL)実装である。
DeepSeek-R1-Distillモデルシリーズをベースとして、我々のRLアプローチは顕著なパフォーマンス向上を実現している。
我々のSkywork-OR1-32Bモデルは、AIME24とAIME25ベンチマークでDeepSeek-R1とQwen3-32Bを上回っています。
論文 参考訳(メタデータ) (2025-05-28T12:56:04Z) - ReasoningShield: Safety Detection over Reasoning Traces of Large Reasoning Models [20.274878511727945]
ReasoningShieldは、Large Reasoning Models (LRMs)におけるChain-of-Thoughts (CoTs)をモデレートするためのフレームワークである
ReasoningShieldは最新のパフォーマンスを実現し、LlamaGuard-4のようなタスク固有のツールを35.6%、GPT-4oのような汎用商用モデルを15.8%向上させた。
論文 参考訳(メタデータ) (2025-05-22T19:44:41Z) - Llama-3.1-FoundationAI-SecurityLLM-Base-8B Technical Report [50.268821168513654]
我々は,Llama 3.1アーキテクチャ上に構築された,サイバーセキュリティにフォーカスした大規模言語モデル(LLM)であるFoundation-Sec-8Bを紹介する。
我々は、Llama 3.1-70B と GPT-4o-mini がサイバーセキュリティ固有のタスクで一致していることを示し、確立された新しいサイバーセキュリティベンチマークと新しいサイバーセキュリティベンチマークの両方で評価した。
当社のモデルを一般公開することで、公開とプライベート両方のサイバーセキュリティ状況において、AI駆動ツールの進歩と採用を加速することを目指しています。
論文 参考訳(メタデータ) (2025-04-28T08:41:12Z) - OpenAI o1 System Card [274.83891368890977]
o1モデルシリーズは、思考の連鎖を用いて推論するために大規模な強化学習で訓練されている。
本報告では,OpenAI o1およびOpenAI o1-miniモデルに対して実施される安全作業の概要について述べる。
論文 参考訳(メタデータ) (2024-12-21T18:04:31Z) - SECURE: Benchmarking Large Language Models for Cybersecurity [0.6741087029030101]
大規模言語モデル(LLM)はサイバーセキュリティの応用の可能性を示しているが、幻覚や真実性の欠如といった問題により信頼性が低下している。
本研究は、これらのタスクに関する7つの最先端モデルを評価し、サイバーセキュリティの文脈におけるその強みと弱点に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-05-30T19:35:06Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。