論文の概要: BugWhisperer: Fine-Tuning LLMs for SoC Hardware Vulnerability Detection
- arxiv url: http://arxiv.org/abs/2505.22878v1
- Date: Wed, 28 May 2025 21:25:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.545839
- Title: BugWhisperer: Fine-Tuning LLMs for SoC Hardware Vulnerability Detection
- Title(参考訳): BugWhisperer:SoCハードウェア脆弱性検出のための微調整LDM
- Authors: Shams Tarek, Dipayan Saha, Sujan Kumar Saha, Farimah Farahmandi,
- Abstract要約: 本稿では,システムオンチップ(SoC)セキュリティ検証の課題を解決するために,BugWhispererという新しいフレームワークを提案する。
我々は、SoCのセキュリティ脆弱性を検出するために特別に設計された、オープンソースで微調整されたLarge Language Model (LLM)を紹介する。
- 参考スコア(独自算出の注目度): 1.0816123715383426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The current landscape of system-on-chips (SoCs) security verification faces challenges due to manual, labor-intensive, and inflexible methodologies. These issues limit the scalability and effectiveness of security protocols, making bug detection at the Register-Transfer Level (RTL) difficult. This paper proposes a new framework named BugWhisperer that utilizes a specialized, fine-tuned Large Language Model (LLM) to address these challenges. By enhancing the LLM's hardware security knowledge and leveraging its capabilities for text inference and knowledge transfer, this approach automates and improves the adaptability and reusability of the verification process. We introduce an open-source, fine-tuned LLM specifically designed for detecting security vulnerabilities in SoC designs. Our findings demonstrate that this tailored LLM effectively enhances the efficiency and flexibility of the security verification process. Additionally, we introduce a comprehensive hardware vulnerability database that supports this work and will further assist the research community in enhancing the security verification process.
- Abstract(参考訳): システムオンチップ(SoC)のセキュリティ検証の現在の状況は、手動、労働集約、柔軟性のない方法論による課題に直面している。
これらの問題はセキュリティプロトコルのスケーラビリティと有効性を制限し、レジスタ・トランスファー・レベル(RTL)でのバグ検出を困難にしている。
本稿では,これらの課題に対処するために,特殊かつ微調整されたLarge Language Model (LLM) を利用する BugWhisperer という新しいフレームワークを提案する。
LLMのハードウェアセキュリティ知識を強化し、テキスト推論と知識伝達の能力を活用することにより、本手法は検証プロセスの適応性と再利用性を自動化し改善する。
本稿では,SoC設計におけるセキュリティ脆弱性の検出に特化して設計された,オープンソースの微調整LDMを紹介する。
このLLMは,セキュリティ検証プロセスの効率性と柔軟性を効果的に向上することを示す。
さらに,本研究を支援する包括的ハードウェア脆弱性データベースを導入し,セキュリティ検証プロセスの強化について研究コミュニティにさらなる支援を行う。
関連論文リスト
- Why Not Act on What You Know? Unleashing Safety Potential of LLMs via Self-Aware Guard Enhancement [48.50995874445193]
大規模言語モデル(LLM)は、様々なタスクにわたって印象的な機能を示しているが、細心の注意を払って構築されたジェイルブレイク攻撃には弱いままである。
SAGE(Self-Aware Guard Enhancement)は,LSMの強い安全識別性能と比較的弱い安全生成能力とを整合させる訓練不要防衛戦略である。
論文 参考訳(メタデータ) (2025-05-17T15:54:52Z) - ThreatLens: LLM-guided Threat Modeling and Test Plan Generation for Hardware Security Verification [1.0816123715383426]
ThreatLensは、ハードウェアセキュリティ検証のためのセキュリティ脅威モデリングとテストプラン生成を自動化するマルチエージェントフレームワークである。
このフレームワークは手動検証の労力を削減し、カバレッジを高め、セキュリティ検証に対する構造化された適応可能なアプローチを保証する。
論文 参考訳(メタデータ) (2025-05-11T03:10:39Z) - Exposing the Ghost in the Transformer: Abnormal Detection for Large Language Models via Hidden State Forensics [5.384257830522198]
重要なアプリケーションにおける大規模言語モデル(LLM)は、重大な信頼性とセキュリティリスクを導入している。
これらの脆弱性は悪意あるアクターによって武器化され、不正アクセス、広範囲にわたる誤報、システムの完全性を侵害した。
本研究では,LLMの異常な挙動を隠蔽法で検出する手法を提案する。
論文 参考訳(メタデータ) (2025-04-01T05:58:14Z) - ACRIC: Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
安全クリティカルな業界における最近のセキュリティインシデントは、適切なメッセージ認証の欠如により、攻撃者が悪意のあるコマンドを注入したり、システムの振る舞いを変更することができることを明らかにした。
これらの欠点は、サイバーセキュリティを強化するために圧力をかける必要性を強調する新しい規制を引き起こしている。
我々は,レガシ産業通信をセキュアにするためのメッセージ認証ソリューションであるACRICを紹介する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - Global Challenge for Safe and Secure LLMs Track 1 [57.08717321907755]
LLM(Global Challenge for Safe and Secure Large Language Models)は、AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が主催する先駆的イニシアチブである。
本稿では,AI Singapore(AISG)とCyberSG R&D Programme Office(CRPO)が組織した先駆的イニシアチブであるLLM(Global Challenge for Safe and Secure Large Language Models)を紹介する。
論文 参考訳(メタデータ) (2024-11-21T08:20:31Z) - Safety Layers in Aligned Large Language Models: The Key to LLM Security [43.805905164456846]
整列 LLM の内部パラメータは、微調整攻撃を受けた場合のセキュリティ劣化に対して脆弱である。
我々の研究は、パラメータレベルでのLLMの整列化におけるセキュリティのメカニズムを明らかにし、モデルの中央に小さな連続した層を識別する。
そこで本稿では, 安全部分調整(SPPFT)方式を提案する。
論文 参考訳(メタデータ) (2024-08-30T04:35:59Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - How Far Have We Gone in Vulnerability Detection Using Large Language
Models [15.09461331135668]
包括的な脆弱性ベンチマークであるVulBenchを紹介します。
このベンチマークは、幅広いCTF課題と実世界のアプリケーションから高品質なデータを集約する。
いくつかのLSMは、脆弱性検出における従来のディープラーニングアプローチよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-21T08:20:39Z) - LLM for SoC Security: A Paradigm Shift [10.538841854672786]
大規模言語モデル(LLM)は、自然言語理解、高度な推論、プログラム合成タスクにおいて顕著な成功を祝っている。
本稿では,既存研究の詳細な分析,実践事例の紹介,総合実験の紹介,促進ガイドラインの紹介を行う。
論文 参考訳(メタデータ) (2023-10-09T18:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。