論文の概要: SEEK: model extraction attack against hybrid secure inference protocols
- arxiv url: http://arxiv.org/abs/2209.06373v1
- Date: Wed, 14 Sep 2022 02:27:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 14:02:42.023379
- Title: SEEK: model extraction attack against hybrid secure inference protocols
- Title(参考訳): seek: ハイブリッドセキュアな推論プロトコルに対するモデル抽出攻撃
- Authors: Si Chen and Junfeng Fan
- Abstract要約: 本稿では,クラスラベルのみを出力するハイブリッドセキュア推論サービスの汎用抽出手法であるSEEKを提案する。
ResNet-18では、SEEKは平均50クエリ未満のパラメータを抽出できる。
- 参考スコア(独自算出の注目度): 10.007616282826099
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security concerns about a machine learning model used in a
prediction-as-a-service include the privacy of the model, the query and the
result. Secure inference solutions based on homomorphic encryption (HE) and/or
multiparty computation (MPC) have been developed to protect all the sensitive
information. One of the most efficient type of solution utilizes HE for linear
layers, and MPC for non-linear layers. However, for such hybrid protocols with
semi-honest security, an adversary can malleate the intermediate features in
the inference process, and extract model information more effectively than
methods against inference service in plaintext. In this paper, we propose SEEK,
a general extraction method for hybrid secure inference services outputing only
class labels. This method can extract each layer of the target model
independently, and is not affected by the depth of the model. For ResNet-18,
SEEK can extract a parameter with less than 50 queries on average, with average
error less than $0.03\%$.
- Abstract(参考訳): 予測・アズ・ア・サービスで使用される機械学習モデルに関するセキュリティ上の懸念には、モデルのプライバシ、クエリ、結果が含まれる。
機密情報を保護するため,同相暗号(HE)や多要素計算(MPC)に基づくセキュア推論ソリューションを開発した。
最も効率的な解の1つは、線形層にhe、非線形層にmpcを用いる。
しかし、半正直なセキュリティを持つハイブリッドプロトコルでは、敵は推論プロセスの中間的特徴を拡大し、平文での推論サービスに対する手法よりも効率的にモデル情報を抽出することができる。
本稿では,クラスラベルのみを出力するハイブリッドセキュア推論サービスの汎用抽出手法であるSEEKを提案する。
本手法は,対象モデルの各層を独立に抽出することができ,モデルの深さの影響を受けない。
ResNet-18では、SEEKは平均50クエリ未満のパラメータを抽出でき、平均エラーは0.03\%$以下である。
関連論文リスト
- MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Private, Efficient, and Accurate: Protecting Models Trained by
Multi-party Learning with Differential Privacy [8.8480262507008]
セキュアなDPSGDプロトコルと2つの最適化手法からなるPEA(Private, Efficient, Accurate)を提案する。
TF-Encrypted と Queqiao の2つのオープンソース MPL フレームワークで PEA を実装しています。
PEAはLAN設定下7分以内でCIFAR-10の精度88%の差分プライベート分類モデルを訓練できることを示した。
論文 参考訳(メタデータ) (2022-08-18T06:48:25Z) - Suppressing Poisoning Attacks on Federated Learning for Medical Imaging [4.433842217026879]
本稿では, ビザンチン障害に対する耐性を有する分散型外乱抑制法(DOS)を提案する。
提案手法は,異なるクライアントのローカルパラメータ更新間の距離を計算し,各クライアントに対してアウトラヤスコアを求める。
得られたアウトリーチスコアはソフトマックス関数を用いて正規化重みに変換され、局所パラメータの重み付け平均がグローバルモデル更新に使用される。
論文 参考訳(メタデータ) (2022-07-15T00:43:34Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - A Protection Method of Trained CNN Model Using Feature Maps Transformed
With Secret Key From Unauthorized Access [15.483078145498085]
本稿では,秘密鍵を用いた畳み込みニューラルネットワーク(CNN)のモデル保護手法を提案する。
提案手法は秘密鍵を用いたブロックワイズ変換をネットワーク内の特徴マップに適用する。
論文 参考訳(メタデータ) (2021-09-01T07:47:05Z) - Covert Model Poisoning Against Federated Learning: Algorithm Design and
Optimization [76.51980153902774]
フェデレーテッド・ラーニング(FL)はパラメータ伝達中にFLモデルに対する外部攻撃に対して脆弱である。
本稿では,最先端の防御アグリゲーション機構に対処する有効なMPアルゴリズムを提案する。
実験の結果,提案したCMPアルゴリズムは,既存の攻撃機構よりも効果的で,かなり優れていることが示された。
論文 参考訳(メタデータ) (2021-01-28T03:28:18Z) - Learning, compression, and leakage: Minimising classification error via
meta-universal compression principles [87.054014983402]
学習シナリオのための圧縮技法の有望なグループは、正規化極大(NML)符号化である。
ここでは,教師付き分類問題に対するNMLに基づく意思決定戦略を検討し,多種多様なモデルに適用した場合にPAC学習を実現することを示す。
本手法の誤分類率は,プライバシに敏感なシナリオにおいて,データ漏洩の可能性を定量化するための指標である最大リークによって上限づけられていることを示す。
論文 参考訳(メタデータ) (2020-10-14T20:03:58Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - A Zero-Shot based Fingerprint Presentation Attack Detection System [8.676298469169174]
PADモデルの一般化を保証するため,新しいゼロショット提示検出モデルを提案する。
生成モデルに基づくZSPADモデルでは, 確立過程において負のサンプルを一切利用しない。
本論文では,提案モデルの性能向上のために,9つの信頼性スコアについて論じる。
論文 参考訳(メタデータ) (2020-02-12T10:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。