論文の概要: LLMPirate: LLMs for Black-box Hardware IP Piracy
- arxiv url: http://arxiv.org/abs/2411.16111v1
- Date: Mon, 25 Nov 2024 05:54:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:22:04.229171
- Title: LLMPirate: LLMs for Black-box Hardware IP Piracy
- Title(参考訳): LLMPirate: ブラックボックスハードウェアIP海賊版LLM
- Authors: Vasudev Gohil, Matthew DeLorenzo, Veera Vishwa Achuta Sai Venkat Nallam, Joey See, Jeyavijayan Rajendran,
- Abstract要約: 大規模言語モデル(LLM)は、ハードウェア開発プロセス全体にわたるセキュリティ上の脆弱性に対して、新たな攻撃シナリオを誘発することができる。
このような攻撃ベクトルの1つは知的財産権(IP)海賊行為である。
LLMPirate は LLM をベースとした最初の手法で, 検出を回避した回路設計の海賊版を生成できる。
- 参考スコア(独自算出の注目度): 3.9803091160152504
- License:
- Abstract: The rapid advancement of large language models (LLMs) has enabled the ability to effectively analyze and generate code nearly instantaneously, resulting in their widespread adoption in software development. Following this advancement, researchers and companies have begun integrating LLMs across the hardware design and verification process. However, these highly potent LLMs can also induce new attack scenarios upon security vulnerabilities across the hardware development process. One such attack vector that has not been explored is intellectual property (IP) piracy. Given that this attack can manifest as rewriting hardware designs to evade piracy detection, it is essential to thoroughly evaluate LLM capabilities in performing this task and assess the mitigation abilities of current IP piracy detection tools. Therefore, in this work, we propose LLMPirate, the first LLM-based technique able to generate pirated variations of circuit designs that successfully evade detection across multiple state-of-the-art piracy detection tools. We devise three solutions to overcome challenges related to integration of LLMs for hardware circuit designs, scalability to large circuits, and effectiveness, resulting in an end-to-end automated, efficient, and practical formulation. We perform an extensive experimental evaluation of LLMPirate using eight LLMs of varying sizes and capabilities and assess their performance in pirating various circuit designs against four state-of-the-art, widely-used piracy detection tools. Our experiments demonstrate that LLMPirate is able to consistently evade detection on 100% of tested circuits across every detection tool. Additionally, we showcase the ramifications of LLMPirate using case studies on IBEX and MOR1KX processors and a GPS module, that we successfully pirate. We envision that our work motivates and fosters the development of better IP piracy detection tools.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩により、ほぼ瞬時にコードを効果的に分析し、生成することが可能になる。
この進歩に続いて、研究者や企業は、ハードウェア設計および検証プロセス全体にわたってLSMの統合を開始している。
しかし、これらの強力なLDMは、ハードウェア開発プロセス全体にわたるセキュリティ上の脆弱性に対して、新たな攻撃シナリオを誘発する可能性がある。
このような攻撃ベクトルの1つは知的財産権(IP)海賊行為である。
この攻撃が海賊行為検出を回避するためのハードウェア設計の書き直しとして現れることを考えると、このタスクの実行においてLCM機能を徹底的に評価し、現在のIP海賊行為検出ツールの緩和能力を評価することが不可欠である。
そこで本研究では, 海賊行為検出ツールの複数にまたがる検出を回避し, 海賊行為を回避し, 海賊行為を回避できるLLMPirateを提案する。
ハードウェア回路設計におけるLCMの統合,大規模回路への拡張性,有効性の3つの課題を克服し,エンドツーエンドの自動化,効率的,実用的な定式化を実現した。
異なるサイズと能力を持つ8つのLCMを用いてLLMPirateを広範囲に実験的に評価し、様々な回路設計を4つの最先端で広く使用されている海賊検知ツールに対して評価する。
実験の結果,LLMPirateは検出ツール毎に100%の試験回路上での検出を一貫して回避できることがわかった。
IBEX と MOR1KX プロセッサと GPS モジュールのケーススタディを用いて LLMPirate の分岐を実証し,海賊行為に成功した。
我々は、我々の研究が、より良いIP海賊行為検出ツールの開発を動機付け、促進することを期待している。
関連論文リスト
- RTL-Breaker: Assessing the Security of LLMs against Backdoor Attacks on HDL Code Generation [17.53405545690049]
大規模言語モデル(LLM)は、ハードウェア設計のためのコード生成/補完タスクにおいて顕著な可能性を示している。
LLMはいわゆるデータ中毒やバックドア攻撃の影響を受けやすい。
ここでは、攻撃者はトレーニングデータに対して悪意のあるコードを注入し、LLMによって生成されたHDLコードに渡すことができる。
論文 参考訳(メタデータ) (2024-11-26T16:31:18Z) - AgentHarm: A Benchmark for Measuring Harmfulness of LLM Agents [84.96249955105777]
LLMエージェントは誤用された場合、より大きなリスクを引き起こすが、その堅牢性は未発見のままである。
我々は, LLMエージェント誤用の研究を容易にするために, AgentHarmと呼ばれる新しいベンチマークを提案する。
主要なLLMは、ジェイルブレイクなしで悪意のあるエージェント要求に驚くほど準拠している。
論文 参考訳(メタデータ) (2024-10-11T17:39:22Z) - Exploring LLMs for Malware Detection: Review, Framework Design, and Countermeasure Approaches [0.24578723416255752]
マルウェアの作成と拡散にLarge Language Modelsの利用が増加していることは、サイバーセキュリティの重大な課題となっている。
本稿では,LSMと各種ソースからのマルウェア検出におけるその役割について概説する。
マルウェアハニーポット、テキストベースの脅威の識別、悪意のある意図を検出するためのコード解析、マルウェアの傾向分析、非標準的な偽装マルウェアの検出。
論文 参考訳(メタデータ) (2024-09-11T19:33:44Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Can We Trust Large Language Models Generated Code? A Framework for In-Context Learning, Security Patterns, and Code Evaluations Across Diverse LLMs [2.7138982369416866]
大規模言語モデル(LLM)は、ソフトウェア工学における自動コード生成に革命をもたらした。
しかし、生成されたコードのセキュリティと品質に関する懸念が持ち上がっている。
本研究は,LLMの行動学習をセキュアにするための枠組みを導入することで,これらの課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-06-18T11:29:34Z) - Are you still on track!? Catching LLM Task Drift with Activations [55.75645403965326]
タスクドリフトは攻撃者がデータを流出させたり、LLMの出力に影響を与えたりすることを可能にする。
そこで, 簡易線形分類器は, 分布外テストセット上で, ほぼ完全なLOC AUCでドリフトを検出することができることを示す。
このアプローチは、プロンプトインジェクション、ジェイルブレイク、悪意のある指示など、目に見えないタスクドメインに対して驚くほどうまく一般化する。
論文 参考訳(メタデータ) (2024-06-02T16:53:21Z) - Assessing LLMs in Malicious Code Deobfuscation of Real-world Malware Campaigns [7.776434991976473]
本稿では,大規模言語モデル(LLM)の難読化機能について検討する。
我々は,悪名高いEmotetマルウェアキャンペーンで使用されている現実の悪意のあるスクリプトを用いた4つのLSMを評価した。
以上の結果から,まだ完全には正確ではないものの,これらのペイロードを効率よく除去できるLCMが存在することが示唆された。
論文 参考訳(メタデータ) (2024-04-30T17:06:27Z) - Prompt Leakage effect and defense strategies for multi-turn LLM interactions [95.33778028192593]
システムプロンプトの漏洩は知的財産を侵害し、攻撃者に対する敵の偵察として機能する可能性がある。
我々は, LLM sycophancy 効果を利用して, 平均攻撃成功率 (ASR) を17.7%から86.2%に高めるユニークな脅威モデルを構築した。
7つのブラックボックス防衛戦略の緩和効果と、漏洩防止のためのオープンソースモデルを微調整する。
論文 参考訳(メタデータ) (2024-04-24T23:39:58Z) - ZeroLeak: Using LLMs for Scalable and Cost Effective Side-Channel
Patching [6.556868623811133]
セキュリティクリティカルなソフトウェア、例えばOpenSSLには、リソースや専門家が不足しているため、パッチが残っていないサイドチャネルのリークが多数含まれている。
マイクロアーキテクチャのサイドチャネルリークを伴う脆弱性コードに対するパッチ生成において,LLM(Large Language Models)の使用について検討する。
論文 参考訳(メタデータ) (2023-08-24T20:04:36Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - Exploiting Programmatic Behavior of LLMs: Dual-Use Through Standard
Security Attacks [67.86285142381644]
命令追従型大規模言語モデルの最近の進歩は、悪意のある目的のために二重使用リスクを増幅する。
命令追従機能がコンピュータセキュリティの標準的な攻撃を可能にするため、デュアルユースを防ぐのは難しい。
本研究では,LLMがヘイトスピーチや詐欺などの悪意のあるコンテンツをターゲットにすることができることを示す。
論文 参考訳(メタデータ) (2023-02-11T15:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。