論文の概要: Llama-3.1-FoundationAI-SecurityLLM-8B-Instruct Technical Report
- arxiv url: http://arxiv.org/abs/2508.01059v1
- Date: Fri, 01 Aug 2025 20:25:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.688482
- Title: Llama-3.1-FoundationAI-SecurityLLM-8B-Instruct Technical Report
- Title(参考訳): Llama-3.1-FoundationAI-SecurityLLM-8B-Instruct Technical Report
- Authors: Sajana Weerawardhena, Paul Kassianik, Blaine Nelson, Baturay Saglam, Anu Vellore, Aman Priyanshu, Supriti Vijay, Massimo Aufiero, Arthur Goldblatt, Fraser Burch, Ed Li, Jianliang He, Dhruv Kedia, Kojin Oshiba, Zhouran Yang, Yaron Singer, Amin Karbasi,
- Abstract要約: 汎用サイバーセキュリティ対話に特化したモデルであるFoundation-Sec-8B-Instructをリリースする。
ドメイン固有の知識と命令追従、会話能力、人間の好みとの整合性を組み合わせることで、高品質で関連する応答を生成する。
総合的な評価によると、Foundation-Sec-8B-Instructは、様々なサイバーセキュリティタスクにおいてLlama 3.1-8B-Instructを上回っている。
- 参考スコア(独自算出の注目度): 23.285449541240325
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown remarkable success across many domains, yet their integration into cybersecurity applications remains limited due to a lack of general-purpose cybersecurity data, representational complexity, and safety and regulatory concerns. To address this gap, we previously introduced Foundation-Sec-8B, a cybersecurity-focused LLM suitable for fine-tuning on downstream tasks. That model, however, was not designed for chat-style interactions or instruction-following. In this report, we release Foundation-Sec-8B-Instruct: a model specifically trained for general-purpose cybersecurity dialogue. Built on Foundation-Sec-8B, it combines domain-specific knowledge with instruction-following, conversational capabilities, and alignment with human preferences to produce high-quality, relevant responses. Comprehensive evaluations show that Foundation-Sec-8B-Instruct outperforms Llama 3.1-8B-Instruct on a range of cybersecurity tasks while matching its instruction-following performance. It is also competitive with GPT-4o-mini on cyber threat intelligence and instruction-following tasks. We envision Foundation-Sec-8B-Instruct becoming an indispensable assistant in the daily workflows of cybersecurity professionals. We release the model publicly at https://huggingface.co/fdtn-ai/Foundation-Sec-8B-Instruct.
- Abstract(参考訳): 大規模言語モデル(LLM)は多くのドメインで顕著な成功を収めているが、汎用サイバーセキュリティデータ、表現の複雑さ、安全性と規制上の懸念のため、サイバーセキュリティアプリケーションへの統合は制限されている。
このギャップに対処するため、私たちは以前、下流タスクの微調整に適したサイバーセキュリティにフォーカスしたLLMであるFoundation-Sec-8Bを紹介しました。
しかし、このモデルはチャットスタイルのインタラクションや命令フォローのためには設計されていない。
本稿では,汎用サイバーセキュリティ対話に特化したモデルであるFoundation-Sec-8B-Instructをリリースする。
Foundation-Sec-8B上に構築され、ドメイン固有の知識と命令フォロー、会話能力と人間の好みとの整合性を組み合わせて、高品質で関連する応答を生成する。
総合的な評価によると、Foundation-Sec-8B-InstructはLlama 3.1-8B-Instructを、命令追従のパフォーマンスにマッチさせながら、様々なサイバーセキュリティタスクで上回っている。
また、サイバー脅威インテリジェンスと命令追従タスクでGPT-4o-miniと競合する。
我々は、Foundation-Sec-8B-Instructが、サイバーセキュリティ専門家の日々のワークフローにおいて欠かせないアシスタントになることを期待している。
モデルはhttps://huggingface.co/fdtn-ai/Foundation-Sec-8B-Instruct.comで公開しています。
関連論文リスト
- Less Data, More Security: Advancing Cybersecurity LLMs Specialization via Resource-Efficient Domain-Adaptive Continuous Pre-training with Minimal Tokens [1.2116854758481395]
ドメイン適応型継続的事前訓練(Domain-Adaptive Continuous Pretraining, DAP)は、大規模言語モデル(LLM)におけるサイバーセキュリティ理解を強化する手法である。
我々は,1億6百万ワードのサイバーセキュリティコーパスを標準,学術文献,その他さまざまな情報源から活用して,デコーダベースの3つのアーキテクチャを適用した。
Llama-3.3-70B-Ins-DAPモデルは、それぞれ0.718、0.933、0.864の最先端のアキュラティを達成した。
論文 参考訳(メタデータ) (2025-06-30T12:59:29Z) - AGENTSAFE: Benchmarking the Safety of Embodied Agents on Hazardous Instructions [76.74726258534142]
本稿では,有害な指示を受けるVLMエージェントの安全性を評価するための最初のベンチマークであるProgentSAFEを提案する。
AgentSAFEはシミュレーションサンドボックス内の現実的なエージェントと環境の相互作用をシミュレートする。
ベンチマークには、45の敵シナリオ、1,350の有害なタスク、8,100の有害な命令が含まれます。
論文 参考訳(メタデータ) (2025-06-17T16:37:35Z) - RedTeamLLM: an Agentic AI framework for offensive security [0.0]
我々は,ペンテストタスクの自動化のための総合的なセキュリティモデルを備えた統合アーキテクチャであるRedTeamLLMを提案し,評価する。
RedTeamLLMは3つの重要なステップに従っている。
評価は、一連のエントリーレベルの自動解決を通じて行われるが、簡単なことではなく、CTFの課題である。
論文 参考訳(メタデータ) (2025-05-11T09:19:10Z) - Llama-3.1-FoundationAI-SecurityLLM-Base-8B Technical Report [50.268821168513654]
我々は,Llama 3.1アーキテクチャ上に構築された,サイバーセキュリティにフォーカスした大規模言語モデル(LLM)であるFoundation-Sec-8Bを紹介する。
我々は、Llama 3.1-70B と GPT-4o-mini がサイバーセキュリティ固有のタスクで一致していることを示し、確立された新しいサイバーセキュリティベンチマークと新しいサイバーセキュリティベンチマークの両方で評価した。
当社のモデルを一般公開することで、公開とプライベート両方のサイバーセキュリティ状況において、AI駆動ツールの進歩と採用を加速することを目指しています。
論文 参考訳(メタデータ) (2025-04-28T08:41:12Z) - Safety Pretraining: Toward the Next Generation of Safe AI [61.2816320807586]
モデルの安全性を最初から構築する,データ中心の事前トレーニングフレームワークを提案する。
i)600Bトークンをフィルタするために使用される1万GPT-4ラベルの例に基づいてトレーニングされた安全分類器,(ii)有害なWebデータのテキスト化によって生成された,これまでで最大の合成安全データセット,(iv)安全でないコンテンツのフラグ付けのために事前トレーニング中に注入されたハームフルネス・タグアノテーション。
論文 参考訳(メタデータ) (2025-04-23T17:58:08Z) - Instructional Segment Embedding: Improving LLM Safety with Instruction Hierarchy [53.54777131440989]
LLM(Large Language Models)は、セキュリティや安全性の脅威を受けやすい言語である。
これらの脆弱性の大きな原因の1つは、命令階層の欠如である。
本稿では,BERTにインスパイアされた命令セグメント埋め込み(ISE)技法を,現代の大規模言語モデルに導入する。
論文 参考訳(メタデータ) (2024-10-09T12:52:41Z) - CyberPal.AI: Empowering LLMs with Expert-Driven Cybersecurity Instructions [0.2999888908665658]
大規模言語モデル(LLM)は、非常に高度な自然言語処理(NLP)機能を持ち、様々なアプリケーションにまたがる汎用機能を提供する。
しかし、サイバーセキュリティのような複雑なドメイン固有のタスクへの応用は、しばしば重大な課題に直面している。
本研究では,SecKnowledgeとCyberPal.AIを紹介し,これらの課題に対処し,セキュリティ専門家のLSMを訓練する。
論文 参考訳(メタデータ) (2024-08-17T22:37:39Z) - INDICT: Code Generation with Internal Dialogues of Critiques for Both Security and Helpfulness [110.6921470281479]
INDICTは、安全性と有用性の両方のガイダンスのために、批評家の内的対話で大きな言語モデルを強化する新しいフレームワークである。
内部対話は、安全主導の批評家と役に立つ主導の批評家の二重協調システムである。
提案手法は,安全性と有用性解析の両面において,高度な批判のレベルを提供し,出力コードの品質を著しく向上させる。
論文 参考訳(メタデータ) (2024-06-23T15:55:07Z) - SEvenLLM: Benchmarking, Eliciting, and Enhancing Abilities of Large Language Models in Cyber Threat Intelligence [27.550484938124193]
本稿では,サイバーセキュリティのインシデント分析と応答能力をベンチマークし,評価し,改善するためのフレームワークを提案する。
サイバーセキュリティのWebサイトから、サイバーセキュリティの生テキストをクロールすることによって、高品質なバイリンガル命令コーパスを作成します。
命令データセットSEvenLLM-Instructは、マルチタスク学習目的のサイバーセキュリティLLMのトレーニングに使用される。
論文 参考訳(メタデータ) (2024-05-06T13:17:43Z) - 10 Security and Privacy Problems in Large Foundation Models [69.70602220716718]
事前トレーニングされたファンデーションモデルは、AIエコシステムの'オペレーティングシステム'のようなものです。
事前訓練されたファンデーションモデルのセキュリティやプライバシの問題は、AIエコシステムの単一障害点につながる。
本章では、事前訓練された基礎モデルのセキュリティとプライバシに関する10の基本的な問題について論じる。
論文 参考訳(メタデータ) (2021-10-28T21:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。