論文の概要: VeriLeaky: Navigating IP Protection vs Utility in Fine-Tuning for LLM-Driven Verilog Coding
- arxiv url: http://arxiv.org/abs/2503.13116v2
- Date: Mon, 14 Apr 2025 11:28:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 19:48:45.737386
- Title: VeriLeaky: Navigating IP Protection vs Utility in Fine-Tuning for LLM-Driven Verilog Coding
- Title(参考訳): VeriLeaky: LLM駆動のVerilogコーディングのためのファインチューニングにおけるIP保護とユーティリティのナビゲート
- Authors: Zeng Wang, Minghao Shao, Mohammed Nabeel, Prithwish Basu Roy, Likhitha Mankali, Jitendra Bhandari, Ramesh Karri, Ozgur Sinanoglu, Muhammad Shafique, Johann Knechtel,
- Abstract要約: 大規模言語モデル(LLMs)は、コーディングにおいて大きな可能性を秘めているが、Verilogのようなニッチな言語には、キュレートされたデータによる微調整(FT)が不可欠である。
FTの知的財産権(IP)を使用すると、LLM推論によってFTデータがリークされるため、深刻なリスクが生じる。
本研究は,FTに対して有効かつ最小限に破壊的な新しい戦略の必要性を示す。
- 参考スコア(独自算出の注目度): 14.726641222473422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) offer significant potential for coding, yet fine-tuning (FT) with curated data is essential for niche languages like Verilog. Using proprietary intellectual property (IP) for FT presents a serious risk, as FT data can be leaked through LLM inference. This leads to a critical dilemma for design houses: seeking to build externally accessible LLMs offering competitive Verilog coding, how can they leverage in-house IP to enhance FT utility while ensuring IP protection? For the first time in the literature, we study this dilemma. Using LLaMA 3.1-8B, we conduct in-house FT on a baseline Verilog dataset (RTLCoder) supplemented with our own in-house IP, which is validated through multiple tape-outs. To rigorously assess IP leakage, we quantify structural similarity (AST/Dolos) and functional equivalence (Synopsys Formality) between generated codes and our in-house IP. We show that our IP can indeed be leaked, confirming the threat. As defense, we evaluate logic locking of Verilog codes (ASSURE). This offers some level of protection, yet reduces the IP's utility for FT and degrades the LLM's performance. Our study shows the need for novel strategies that are both effective and minimally disruptive to FT, an essential effort for enabling design houses to fully utilize their proprietary IP toward LLM-driven Verilog coding.
- Abstract(参考訳): 大規模言語モデル(LLMs)は、コーディングにおいて大きな可能性を秘めているが、Verilogのようなニッチな言語には、キュレートされたデータによる微調整(FT)が不可欠である。
FTの知的財産権(IP)を使用すると、LLM推論によってFTデータがリークされるため、深刻なリスクが生じる。
競争力のある Verilog コーディングを提供する外部アクセス可能な LLM の構築や,内部 IP を活用して IP 保護を確保しながら FT ユーティリティを向上させるには,どのようにすればよいのか?
このジレンマを初めて文献で研究する。
LLaMA 3.1-8B を用いて、複数のテープアウトによって検証される、我々の社内IPを補足したベースライン Verilog データセット (RTLCoder) 上で、内部FT を実行する。
IPリークを厳格に評価するために、生成されたコードと社内IPとの間の構造的類似性(AST/Dolos)と機能的等価性(Synopsys Formality)を定量化する。
私たちは、我々のIPが実際に漏洩し、脅威を確認できることを示します。
防衛として、我々はVerilog codes (ASSURE) の論理ロックを評価する。
これはある程度の保護を提供するが、IPのFTユーティリティを減らし、LLMの性能を低下させる。
本研究は,LLM駆動のVerilogコーディングに対して,デザインハウスが独自IPを十分に活用するための重要な取り組みであるFTに対して,効果的かつ最小限の破壊力を持つ新たな戦略の必要性を示す。
関連論文リスト
- LLM-IFT: LLM-Powered Information Flow Tracking for Secure Hardware [0.0]
情報フロー追跡(IFT)は、ハードウェアの機密性や整合性を損なう可能性のある不正な活動を特定するために用いられる。
従来のIFT手法はスケーラビリティと適応性に苦慮し、大規模ハードウェアの適用性を制限するボトルネックをトレースする。
本稿では,ハードウェアにおけるIFTプロセスの実現のために,大規模言語モデル (LLM) を統合した LLM-IFT を提案する。
論文 参考訳(メタデータ) (2025-04-09T16:32:13Z) - LightPROF: A Lightweight Reasoning Framework for Large Language Model on Knowledge Graph [57.382255728234064]
大きな言語モデル(LLM)は、テキスト理解とゼロショット推論において素晴らしい能力を持っている。
知識グラフ(KG)は、LLMの推論プロセスに対して、リッチで信頼性の高いコンテキスト情報を提供する。
我々は、KGQA(LightPROF)のための新しい軽量で効率的なPrompt Learning-ReasOning Frameworkを提案する。
論文 参考訳(メタデータ) (2025-04-04T03:03:47Z) - TFHE-Coder: Evaluating LLM-agentic Fully Homomorphic Encryption Code Generation [10.597643264309415]
TFHE (Homomorphic Encryption over the Torus) は、復号化せずにデータを暗号化する。
マシンラーニングのプライバシ保護、セキュアなマルチパーティ計算、プライベートブロックチェーントランザクション、セキュアな医療診断といった可能性にもかかわらず、暗号化の複雑さとユーザビリティの問題により、その採用は制限されている。
この研究は、TFHEコード生成の最初のベンチマークを確立し、ドメイン固有のフィードバックで拡張されたLLMが、FHEコード生成の専門的ギャップを埋める方法を示している。
論文 参考訳(メタデータ) (2025-03-15T17:57:44Z) - Vision-Language Model IP Protection via Prompt-based Learning [52.783709712318405]
視覚言語モデル(VLM)に適した軽量IP保護戦略であるIP-CLIPを導入する。
CLIPの凍結した視覚的バックボーンを利用することで、画像スタイルとコンテンツ情報の両方を抽出し、IPプロンプトの学習に取り入れる。
この戦略は堅牢な障壁として機能し、権限のないドメインから権限のないドメインへの機能移転を効果的に防止する。
論文 参考訳(メタデータ) (2025-03-04T08:31:12Z) - Towards Robust Legal Reasoning: Harnessing Logical LLMs in Law [0.0]
大規模言語モデル(LLM)は将来性を示すが、法的文脈におけるそれらの応用には高い精度、再現性、透明性が必要である。
本稿では,LLMの自然言語理解と論理に基づく推論を統合したニューロシンボリックアプローチを提案する。
法律文書ケーススタディとして,保険契約のカバレッジ関連クエリにニューロシンボリックAIを適用した。
論文 参考訳(メタデータ) (2025-02-24T20:38:17Z) - Studying and Benchmarking Large Language Models For Log Level Suggestion [49.176736212364496]
大規模言語モデル(LLM)は、様々な領域で研究の焦点となっている。
本稿では,12個のオープンソースLCMのログレベル提案における性能に及ぼす特性と学習パラダイムの影響について検討する。
論文 参考訳(メタデータ) (2024-10-11T03:52:17Z) - LiCoEval: Evaluating LLMs on License Compliance in Code Generation [27.368667936460508]
大規模言語モデル(LLM)はコード生成に革命をもたらし、開発者によるAIコーディングツールの普及につながった。
LLMは、ライセンス情報を提供することなくライセンス保護されたコードを生成することができ、ソフトウェア製造中に知的財産権侵害を引き起こす可能性がある。
本稿では,LLM生成コードにおけるライセンスコンプライアンスの重要かつ未解明な問題に対処する。
論文 参考訳(メタデータ) (2024-08-05T14:09:30Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Advancing TTP Analysis: Harnessing the Power of Large Language Models with Retrieval Augmented Generation [1.2289361708127877]
大規模言語モデル(LLM)が、サイバーセキュリティなどの重要なドメインに対して正確な応答を提供するために、効率的かつ適切な方法でどのように使用できるかは、不明である。
この研究は、デコーダのみのLLMに対するエンコーダのみのLLM(Retrieval Augmented Generation, RAG)に対する教師付き微調整(SFT)の使用について研究し、比較する。
本研究では,RAGを用いたデコーダのみのLLMが,SFTを用いたエンコーダのみのモデルよりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-12-30T16:56:24Z) - Source Attribution for Large Language Model-Generated Data [57.85840382230037]
合成テキストの生成に寄与したデータプロバイダを特定することで、ソース属性を実行できることが不可欠である。
我々はこの問題を透かしによって取り組めることを示した。
本稿では,アルゴリズム設計により,これらの重要な特性を満足する情報源属性フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-01T12:02:57Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。