論文の概要: CircuitGuard: Mitigating LLM Memorization in RTL Code Generation Against IP Leakage
- arxiv url: http://arxiv.org/abs/2510.19676v1
- Date: Wed, 22 Oct 2025 15:22:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.025228
- Title: CircuitGuard: Mitigating LLM Memorization in RTL Code Generation Against IP Leakage
- Title(参考訳): CircuitGuard:IPリークに対するRTLコード生成におけるLLMメモリ化の軽減
- Authors: Nowfel Mashnoor, Mohammad Akyash, Hadi Kamali, Kimia Azar,
- Abstract要約: 大規模言語モデル(LLM)は、レジスタ転送レベル(RTL)ハードウェア合成など、生成タスクにおいて顕著な成功を収めている。
トレーニングデータを記憶する傾向は、プロプライエタリまたはセキュリティに敏感な設計が推論中に意図せずに露出した場合に重大なリスクを引き起こす。
リーク低減と正当性保存のバランスをとる戦略であるCircuitGuardを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have achieved remarkable success in generative tasks, including register-transfer level (RTL) hardware synthesis. However, their tendency to memorize training data poses critical risks when proprietary or security-sensitive designs are unintentionally exposed during inference. While prior work has examined memorization in natural language, RTL introduces unique challenges: In RTL, structurally different implementations (e.g., behavioral vs. gate-level descriptions) can realize the same hardware, leading to intellectual property (IP) leakage (full or partial) even without verbatim overlap. Conversely, even small syntactic variations (e.g., operator precedence or blocking vs. non-blocking assignments) can drastically alter circuit behavior, making correctness preservation especially challenging. In this work, we systematically study memorization in RTL code generation and propose CircuitGuard, a defense strategy that balances leakage reduction with correctness preservation. CircuitGuard (1) introduces a novel RTL-aware similarity metric that captures both structural and functional equivalence beyond surface-level overlap, and (2) develops an activation-level steering method that identifies and attenuates transformer components most responsible for memorization. Our empirical evaluation demonstrates that CircuitGuard identifies (and isolates) 275 memorization-critical features across layers 18-28 of Llama 3.1-8B model, achieving up to 80% reduction in semantic similarity to proprietary patterns while maintaining generation quality. CircuitGuard further shows 78-85% cross-domain transfer effectiveness, enabling robust memorization mitigation across circuit categories without retraining.
- Abstract(参考訳): 大規模言語モデル(LLM)は、レジスタ転送レベル(RTL)ハードウェア合成など、生成タスクにおいて顕著な成功を収めている。
しかし、トレーニングデータを記憶する傾向は、プロプライエタリまたはセキュリティに敏感な設計が推論中に意図せずに露出した場合に重大なリスクを引き起こす。
RTLでは、構造的に異なる実装(例えば、動作とゲートレベルの記述)が同じハードウェアを実現することができ、冗長な重複なしに知的財産権(IP)漏洩(完全または部分的)につながる。
逆に、たとえ小さな構文変化(例えば、演算子優先やブロッキング、非ブロッキング代入)であっても、回路の動作を劇的に変えることができ、特に正確性保存が困難である。
本研究では,RTLコード生成における暗記を体系的に研究し,リーク低減と正当性保存のバランスをとる防衛戦略であるCircuitGuardを提案する。
CircuitGuard (1) は, 表面重なり以上の構造的および機能的等価性を捉える新しい RTL-aware 類似度指標を導入し, 2) 記憶に最も寄与する変圧器成分を識別・減衰するアクティベーションレベルステアリング法を開発した。
実験により,CircuitGuardはLlama 3.1-8Bモデルの18~28層にまたがる275個の記憶クリティカルな特徴を識別し,生成品質を維持しながら,プロプライエタリなパターンとのセマンティックな類似性を最大80%低減できることを示した。
CircuitGuardはさらに78~85%のクロスドメイン転送効率を示し、再トレーニングなしに回路カテゴリ間の堅牢な記憶緩和を可能にする。
関連論文リスト
- DiffuGuard: How Intrinsic Safety is Lost and Found in Diffusion Large Language Models [50.21378052667732]
我々は、ステップ内およびステップ間ダイナミクスという2つの異なる次元にわたるジェイルブレイク攻撃に対して、dLLM脆弱性の詳細な分析を行う。
デュアルステージアプローチによる脆弱性に対処する,トレーニング不要な防御フレームワークであるDiffuGuardを提案する。
論文 参考訳(メタデータ) (2025-09-29T05:17:10Z) - Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - DecoRTL: A Run-time Decoding Framework for RTL Code Generation with LLMs [0.0]
大規模言語モデル (LLM) は構造的あいまいさや意味的複雑さの領域において信頼性が低いことを示す。
本稿では,新しい実行時デコーディング戦略であるDecoRTLを紹介する。
私たちのアプローチは、追加のモデル微調整を必要とせずに、完全に推論時に動作します。
論文 参考訳(メタデータ) (2025-07-03T01:17:44Z) - Understanding Verbatim Memorization in LLMs Through Circuit Discovery [11.007171636579868]
LLMにおける記憶機構の解明はいまだに不十分である。
我々は、モデル内の特定の機能を実行する最小の計算部分グラフである変換回路を使用する。
メモリ化を開始する回路は一度開始しても維持でき、メモリ化のみを維持できる回路は開始を誘導できない。
論文 参考訳(メタデータ) (2025-06-17T20:14:56Z) - PRO-V: An Efficient Program Generation Multi-Agent System for Automatic RTL Verification [6.983135183126461]
Pro-Vは、堅牢なRTL検証のためのプログラム生成マルチエージェントシステムである。
生成したテストベンチの正しさを高めるため、効率的なn個の反復サンプリング戦略が組み込まれている。
Pro-Vは、黄金のRTL実装では87.17%、RTL変異では76.28%の精度で検証されている。
論文 参考訳(メタデータ) (2025-06-13T20:06:34Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - Memorize or Generalize? Evaluating LLM Code Generation with Code Rewriting [54.48306552577881]
大規模な言語モデル(LLM)は、主にメモリ化(トレーニングデータの大きな部分を複製または再利用する)と一般化(Generalization)を併用している、と我々は主張する。
既存の評価は、表面/構造的類似性を無視し、繰り返しコードの良質な再利用を有害なリコールと記憶タスクの正しさで混同する。
そこで我々は,2つの信号を組み合わせた正規化スコアである覚書リスク指標(MRI)を提案する。 (i) モデルが元の地平解とどのように類似しているか, (ii) 元のタスクから書き換えされたタスクにどの程度の性能が低下するか。
論文 参考訳(メタデータ) (2025-03-04T05:39:24Z) - REFINE: Inversion-Free Backdoor Defense via Model Reprogramming [60.554146386198376]
ディープニューラルネットワーク(DNN)に対するバックドア攻撃は、重大なセキュリティ脅威として浮上している。
モデル再プログラミングに基づく逆フリーバックドア防御手法であるREFINEを提案する。
論文 参考訳(メタデータ) (2025-02-22T07:29:12Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。