論文の概要: SLIP-SEC: Formalizing Secure Protocols for Model IP Protection
- arxiv url: http://arxiv.org/abs/2510.24999v1
- Date: Tue, 28 Oct 2025 21:59:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.802965
- Title: SLIP-SEC: Formalizing Secure Protocols for Model IP Protection
- Title(参考訳): SLIP-SEC: モデルIP保護のためのセキュアプロトコルの形式化
- Authors: Racchit Jain, Satya Lokam, Yehonathan Refael, Adam Hakim, Lev Greenberg, Jay Tenenbaum,
- Abstract要約: 大言語モデル(LLM)は知的財産(IP)を表す。
これらのモデルを部分的に信頼または安全でないデバイスにデプロイすると、モデル盗難のかなりのリスクが生じる。
本稿では,信頼できないリソースと信頼できないリソースの計算を分割するハイブリッド推論プロトコルSLIPの正式なフレームワークとセキュリティ基盤について述べる。
- 参考スコア(独自算出の注目度): 3.519970512407396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) represent valuable intellectual property (IP), reflecting significant investments in training data, compute, and expertise. Deploying these models on partially trusted or insecure devices introduces substantial risk of model theft, making it essential to design inference protocols with provable security guarantees. We present the formal framework and security foundations of SLIP, a hybrid inference protocol that splits model computation between a trusted and an untrusted resource. We define and analyze the key notions of model decomposition and hybrid inference protocols, and introduce formal properties including safety, correctness, efficiency, and t-soundness. We construct secure inference protocols based on additive decompositions of weight matrices, combined with masking and probabilistic verification techniques. We prove that these protocols achieve information-theoretic security against honest-but-curious adversaries, and provide robustness against malicious adversaries with negligible soundness error. This paper focuses on the theoretical underpinnings of SLIP: precise definitions, formal protocols, and proofs of security. Empirical validation and decomposition heuristics appear in the companion SLIP paper. Together, the two works provide a complete account of securing LLM IP via hybrid inference, bridging both practice and theory.
- Abstract(参考訳): 大規模言語モデル(LLM)は、データ、計算、専門知識のトレーニングに多大な投資をしていることを反映して、貴重な知的財産(IP)を表現している。
これらのモデルを部分的に信頼されたあるいは安全でないデバイスにデプロイすることは、モデル盗難のかなりのリスクをもたらすため、証明可能なセキュリティ保証を備えた推論プロトコルの設計が不可欠である。
本稿では、モデル計算を信頼できないリソースと信頼できないリソースに分割するハイブリッド推論プロトコルSLIPの正式なフレームワークとセキュリティ基盤について述べる。
モデル分解とハイブリッド推論プロトコルの主要な概念を定義し, 安全性, 正確性, 効率, t-音質などの形式的特性を導入する。
重み行列の加法分解に基づくセキュアな推論プロトコルを構築し,マスキングと確率的検証手法を組み合わせた。
我々は,これらのプロトコルが真に反する敵に対する情報理論的セキュリティを実現し,悪質な敵に対して無視可能な音質誤差で堅牢性を実現することを証明した。
本稿では,SLIPの正確な定義,形式的プロトコル,セキュリティの証明といった理論的基盤について論じる。
共用SLIP紙に実証的検証と分解ヒューリスティックスが現れる。
2つの研究は、ハイブリッド推論によるLLM IPの確保、実践と理論の橋渡しの完全な説明を提供する。
関連論文リスト
- Formal Verification of Physical Layer Security Protocols for Next-Generation Communication Networks (extended version) [1.5997757408973357]
音響アニメーションを生成するIsabelle形式を用いたNeedham-Schroederプロトコルをモデル化する。
以上の結果から,すべてのシナリオにおいて信頼性が保たれていることが示唆された。
我々は、透かしとジャミングを統合したPLSベースのDiffie-Hellmanプロトコルを提案している。
論文 参考訳(メタデータ) (2025-08-26T20:59:16Z) - Safe Low Bandwidth SPV: A Formal Treatment of Simplified Payment Verification Protocols and Security Bounds [0.0]
我々は,SPVが有界対向仮定の下では安全であるだけでなく,スケーラブルで検証可能なトランザクション包含を必要とするデジタルキャッシュシステムに対して,厳密に最適であることを示す。
この文書は、セキュアなSPV実装のための青写真と、無効なクライアントを取り巻く一般的な誤解の反論として機能する。
論文 参考訳(メタデータ) (2025-07-01T13:44:48Z) - SLIP: Securing LLMs IP Using Weights Decomposition [0.0]
大規模言語モデル(LLM)は、最近、アカデミックと産業の両方で広く採用されている。
これらのモデルが成長するにつれて、彼らは価値ある知的財産権(IP)となり、所有者による巨額の投資を反映している。
エッジ上のモデルのIPを保護する現在の方法は、実用性、精度の低下、要求に対する適合性の制限がある。
我々は,エッジデデプロイされたモデルを盗難から保護するために,SLIPという新しいハイブリッド推論アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-07-15T16:37:55Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Byzantine-Robust Federated Learning with Optimal Statistical Rates and
Privacy Guarantees [123.0401978870009]
ほぼ最適な統計率を持つビザンチン・ロバスト・フェデレーション学習プロトコルを提案する。
競合プロトコルに対してベンチマークを行い、提案プロトコルの実証的な優位性を示す。
我々のバケットプロトコルは、プライバシー保証手順と自然に組み合わせて、半正直なサーバに対するセキュリティを導入することができる。
論文 参考訳(メタデータ) (2022-05-24T04:03:07Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。