論文の概要: SALAD: Systematic Assessment of Machine Unlearing on LLM-Aided Hardware Design
- arxiv url: http://arxiv.org/abs/2506.02089v1
- Date: Mon, 02 Jun 2025 13:59:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.908684
- Title: SALAD: Systematic Assessment of Machine Unlearing on LLM-Aided Hardware Design
- Title(参考訳): SALAD: LLM支援ハードウェア設計によるマシンアンリーディングのシステム評価
- Authors: Zeng Wang, Minghao Shao, Rupesh Karn, Jitendra Bhandari, Likhitha Mankali, Ramesh Karri, Ozgur Sinanoglu, Muhammad Shafique, Johann Knechtel,
- Abstract要約: 大規模言語モデル(LLM)は、ハードウェア設計自動化のための変換機能を提供する。
LLMは、Verilog評価データ汚染、知的財産権(IP)設計リーク、悪意のあるVerilog生成のリスクなど、重要なデータセキュリティ上の課題を提起する。
SALADは、機械学習を利用してこれらの脅威を緩和する包括的アセスメントである。
- 参考スコア(独自算出の注目度): 15.02451323284475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) offer transformative capabilities for hardware design automation, particularly in Verilog code generation. However, they also pose significant data security challenges, including Verilog evaluation data contamination, intellectual property (IP) design leakage, and the risk of malicious Verilog generation. We introduce SALAD, a comprehensive assessment that leverages machine unlearning to mitigate these threats. Our approach enables the selective removal of contaminated benchmarks, sensitive IP and design artifacts, or malicious code patterns from pre-trained LLMs, all without requiring full retraining. Through detailed case studies, we demonstrate how machine unlearning techniques effectively reduce data security risks in LLM-aided hardware design.
- Abstract(参考訳): 大規模言語モデル(LLM)は、特にVerilogコード生成において、ハードウェア設計自動化のための変換機能を提供する。
しかし、彼らはまた、Verilogの評価データ汚染、知的財産権(IP)設計リーク、悪意のあるVerilog生成のリスクなど、重要なデータセキュリティ上の課題も抱えている。
SALADは、機械学習を利用してこれらの脅威を緩和する包括的アセスメントである。
提案手法は, 汚染されたベンチマーク, センシティブIP, デザインアーティファクト, あるいは事前学習されたLCMから悪意のあるコードパターンを, 完全再トレーニングを必要とせずに選択的に除去することを可能にする。
詳細なケーススタディを通じて、LLM支援ハードウェア設計において、機械学習技術がデータセキュリティのリスクを効果的に軽減する方法を実証する。
関連論文リスト
- Hardware Design and Security Needs Attention: From Survey to Path Forward [8.165279651848923]
注目に基づく人工知能(AI)モデルの最近の進歩は、デジタルハードウェア設計を自動化する大きな可能性を解き放っている。
本研究では,ハードウェア設計とセキュリティの自動化に向けた技術的ハードルと今後の展望を明らかにする。
論文 参考訳(メタデータ) (2025-04-11T03:48:57Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Towards LLM Unlearning Resilient to Relearning Attacks: A Sharpness-Aware Minimization Perspective and Beyond [41.3029262040131]
再学習攻撃に対して未学習モデルを堅牢化する方法について検討する。
解析の結果,スムーズさの最適化が再学習攻撃の軽減に重要な役割を担っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-07T23:03:55Z) - Generative AI in Cybersecurity: A Comprehensive Review of LLM Applications and Vulnerabilities [1.0974825157329373]
本稿では,ジェネレーティブAIとLarge Language Models(LLMs)によるサイバーセキュリティの将来を概観する。
ハードウェア設計のセキュリティ、侵入検知、ソフトウェアエンジニアリング、設計検証、サイバー脅威インテリジェンス、マルウェア検出、フィッシング検出など、さまざまな領域にわたるLCMアプリケーションを探索する。
GPT-4, GPT-3.5, Mixtral-8x7B, BERT, Falcon2, LLaMA などのモデルの発展に焦点を当て, LLM の進化とその現状について概説する。
論文 参考訳(メタデータ) (2024-05-21T13:02:27Z) - Evolutionary Large Language Models for Hardware Security: A Comparative Survey [0.4642370358223669]
本研究では,レジスタ転送レベル(RTL)設計におけるLLM(Large Language Models)統合の種について検討する。
LLMは、HW設計に固有のセキュリティ関連脆弱性を自動的に修正するために利用することができる。
論文 参考訳(メタデータ) (2024-04-25T14:42:12Z) - All Artificial, Less Intelligence: GenAI through the Lens of Formal Verification [2.015768713390138]
本稿では,現代のハードウェア設計における共通弱さ(CWE)の形式的検証に焦点を当てる。
ハードウェア設計を脆弱性またはCWEフリーに分類するために,形式検証を適用する。
我々は、識別された脆弱性を、6万の生成したSystemVerilog Register Transfer Level (RTL)コードに対してCWE番号に関連付けている。
論文 参考訳(メタデータ) (2024-03-25T13:23:24Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - A Framework for Evaluating the Cybersecurity Risk of Real World, Machine
Learning Production Systems [41.470634460215564]
我々はML生産システムにサイバー攻撃を組み込むMulVAL攻撃グラフ生成および分析フレームワークの拡張を開発する。
提案された拡張を使用することで、セキュリティ実践者はMLコンポーネントを含む環境にアタックグラフ分析手法を適用することができる。
論文 参考訳(メタデータ) (2021-07-05T05:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。