論文の概要: LLA: Enhancing Security and Privacy for Generative Models with Logic-Locked Accelerators
- arxiv url: http://arxiv.org/abs/2512.22307v1
- Date: Fri, 26 Dec 2025 05:47:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:29.981323
- Title: LLA: Enhancing Security and Privacy for Generative Models with Logic-Locked Accelerators
- Title(参考訳): LLA: Logic-Locked Acceleratorによる生成モデルのセキュリティとプライバシ向上
- Authors: You Li, Guannan Zhao, Yuhao Ju, Yunqi He, Jie Gu, Hai Zhou,
- Abstract要約: 生成AIモデルのための効果的な知的財産権(IP)保護スキームであるLLAを紹介する。
LLAはハードウェアとソフトウェア間のシナジーを利用して、さまざまなサプライチェーンの脅威を防御する。
LLAは、幅広いオラクル誘導鍵最適化攻撃に耐えられることを示す。
- 参考スコア(独自算出の注目度): 4.675182563364844
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce LLA, an effective intellectual property (IP) protection scheme for generative AI models. LLA leverages the synergy between hardware and software to defend against various supply chain threats, including model theft, model corruption, and information leakage. On the software side, it embeds key bits into neurons that can trigger outliers to degrade performance and applies invariance transformations to obscure the key values. On the hardware side, it integrates a lightweight locking module into the AI accelerator while maintaining compatibility with various dataflow patterns and toolchains. An accelerator with a pre-stored secret key acts as a license to access the model services provided by the IP owner. The evaluation results show that LLA can withstand a broad range of oracle-guided key optimization attacks, while incurring a minimal computational overhead of less than 0.1% for 7,168 key bits.
- Abstract(参考訳): 生成AIモデルのための効果的な知的財産権(IP)保護スキームであるLLAを紹介する。
LLAは、ハードウェアとソフトウェア間のシナジーを利用して、モデル盗難、モデル破損、情報漏洩など、さまざまなサプライチェーンの脅威を防御する。
ソフトウェア側では、キービットをニューロンに埋め込んで、アウトレーヤをトリガーしてパフォーマンスを低下させ、キー値を曖昧にするために不変変換を適用します。
ハードウェア面では、さまざまなデータフローパターンやツールチェーンとの互換性を維持しながら、軽量なロックモジュールをAIアクセラレータに統合する。
プレストアされたシークレットキーを持つアクセラレータは、IP所有者が提供するモデルサービスにアクセスするライセンスとして機能する。
評価結果から,LLAは7,168個の鍵ビットに対して0.1%未満の最小計算オーバーヘッドを発生させながら,広い範囲のオラクル誘導鍵最適化攻撃に耐えられることが示された。
関連論文リスト
- HAMLOCK: HArdware-Model LOgically Combined attacK [6.047087245941092]
本稿では,Hardware-Model Logically Combined Attack (HAMLOCK)を紹介する。
HamLOCKは、ハードウェアとソフトウェアの境界を越えて攻撃ロジックを分散する、はるかにステルスな脅威である。
ハードウェア・ソフトウェア・インタフェースに重大な脆弱性が発見され,新たな層間防御が要求された。
論文 参考訳(メタデータ) (2025-10-22T00:31:49Z) - Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - Securing Transformer-based AI Execution via Unified TEEs and Crypto-protected Accelerators [19.93096649006403]
マシンラーニングは信頼できないクラウドインフラストラクチャ上で動作し、データとモデルを潜在的な侵害に晒す。
信頼された実行環境(TEE)内で完全にモデル推論を実行すると、非自明なスローダウンが発生する。
異種TEEおよびアクセラレータシステムにおけるセキュアトランスフォーマー推論を実現するフレームワークであるTwinShieldを提案する。
論文 参考訳(メタデータ) (2025-07-04T03:52:53Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - EncCluster: Scalable Functional Encryption in Federated Learning through Weight Clustering and Probabilistic Filters [3.9660142560142067]
フェデレートラーニング(FL)は、アグリゲーションサーバにのみローカルモデルの更新を通信することで、分散デバイス間のモデルトレーニングを可能にする。
FLはモデル更新送信中に推論攻撃に弱いままである。
本稿では、重みクラスタリングによるモデル圧縮と、最近の分散型FEとプライバシ強化データエンコーディングを統合する新しい方法であるEncClusterを提案する。
論文 参考訳(メタデータ) (2024-06-13T14:16:50Z) - SISSA: Real-time Monitoring of Hardware Functional Safety and
Cybersecurity with In-vehicle SOME/IP Ethernet Traffic [49.549771439609046]
本稿では,車内機能安全とサイバーセキュリティをモデル化・解析するためのSOME/IP通信トラフィックベースアプローチであるSISSAを提案する。
具体的には、SISSAはWeibullディストリビューションでハードウェア障害をモデル化し、SOME/IP通信に対する5つの潜在的な攻撃に対処する。
広範囲な実験結果から,SISSAの有効性と有効性が確認された。
論文 参考訳(メタデータ) (2024-02-21T03:31:40Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。