論文の概要: SEEK: model extraction attack against hybrid secure inference protocols
- arxiv url: http://arxiv.org/abs/2209.06373v1
- Date: Wed, 14 Sep 2022 02:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 14:02:42.023379
- Title: SEEK: model extraction attack against hybrid secure inference protocols
- Title(参考訳): seek: ハイブリッドセキュアな推論プロトコルに対するモデル抽出攻撃
- Authors: Si Chen and Junfeng Fan
- Abstract要約: 本稿では,クラスラベルのみを出力するハイブリッドセキュア推論サービスの汎用抽出手法であるSEEKを提案する。
ResNet-18では、SEEKは平均50クエリ未満のパラメータを抽出できる。
- 参考スコア(独自算出の注目度): 10.007616282826099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security concerns about a machine learning model used in a
prediction-as-a-service include the privacy of the model, the query and the
result. Secure inference solutions based on homomorphic encryption (HE) and/or
multiparty computation (MPC) have been developed to protect all the sensitive
information. One of the most efficient type of solution utilizes HE for linear
layers, and MPC for non-linear layers. However, for such hybrid protocols with
semi-honest security, an adversary can malleate the intermediate features in
the inference process, and extract model information more effectively than
methods against inference service in plaintext. In this paper, we propose SEEK,
a general extraction method for hybrid secure inference services outputing only
class labels. This method can extract each layer of the target model
independently, and is not affected by the depth of the model. For ResNet-18,
SEEK can extract a parameter with less than 50 queries on average, with average
error less than $0.03\%$.
- Abstract(参考訳): 予測・アズ・ア・サービスで使用される機械学習モデルに関するセキュリティ上の懸念には、モデルのプライバシ、クエリ、結果が含まれる。
機密情報を保護するため,同相暗号(HE)や多要素計算(MPC)に基づくセキュア推論ソリューションを開発した。
最も効率的な解の1つは、線形層にhe、非線形層にmpcを用いる。
しかし、半正直なセキュリティを持つハイブリッドプロトコルでは、敵は推論プロセスの中間的特徴を拡大し、平文での推論サービスに対する手法よりも効率的にモデル情報を抽出することができる。
本稿では,クラスラベルのみを出力するハイブリッドセキュア推論サービスの汎用抽出手法であるSEEKを提案する。
本手法は,対象モデルの各層を独立に抽出することができ,モデルの深さの影響を受けない。
ResNet-18では、SEEKは平均50クエリ未満のパラメータを抽出でき、平均エラーは0.03\%$以下である。
関連論文リスト
- Benchmarking Secure Sampling Protocols for Differential Privacy [3.0325535716232404]
微分プライバシ(DP)の2つのよく知られたモデルは、中心モデルと局所モデルである。
近年,分散環境でのセキュアマルチパーティ計算(MPC)によるDPの実現が提案されている。
論文 参考訳(メタデータ) (2024-09-16T19:04:47Z) - SLIP: Securing LLMs IP Using Weights Decomposition [0.0]
大規模言語モデル(LLM)は、最近、アカデミックと産業の両方で広く採用されている。
これらのモデルが成長するにつれて、彼らは価値ある知的財産権(IP)となり、所有者による巨額の投資を反映している。
エッジ上のモデルのIPを保護する現在の方法は、実用性、精度の低下、要求に対する適合性の制限がある。
我々は,エッジデデプロイされたモデルを盗難から保護するために,SLIPという新しいハイブリッド推論アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-07-15T16:37:55Z) - A Quantization-based Technique for Privacy Preserving Distributed Learning [2.2139875218234475]
本稿では,機械学習モデルの分散トレーニングのための,新しい規則に準拠したデータ保護手法について述べる。
本手法は,Hash-Combとランダム化を組み合わせた量子化マルチハッシュデータ表現に基づくプロトコルを用いることで,トレーニングデータとMLモデルパラメータの両方を保護する。
論文 参考訳(メタデータ) (2024-06-26T14:54:12Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、学習モデルにおけるプライバシの問題に対処するように設計されている。
新しい分散パラダイムは、データのプライバシを保護するが、サーバがローカルデータセットにアクセスできないため、攻撃面を区別する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Private, Efficient, and Accurate: Protecting Models Trained by
Multi-party Learning with Differential Privacy [8.8480262507008]
セキュアなDPSGDプロトコルと2つの最適化手法からなるPEA(Private, Efficient, Accurate)を提案する。
TF-Encrypted と Queqiao の2つのオープンソース MPL フレームワークで PEA を実装しています。
PEAはLAN設定下7分以内でCIFAR-10の精度88%の差分プライベート分類モデルを訓練できることを示した。
論文 参考訳(メタデータ) (2022-08-18T06:48:25Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization [76.51980153902774]
フェデレーテッド・ラーニング(FL)はパラメータ伝達中にFLモデルに対する外部攻撃に対して脆弱である。
本稿では,最先端の防御アグリゲーション機構に対処する有効なMPアルゴリズムを提案する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
論文 参考訳(メタデータ) (2021-01-28T03:28:18Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。