論文の概要: Monitoring-based Differential Privacy Mechanism Against Query-Flooding
Parameter Duplication Attack
- arxiv url: http://arxiv.org/abs/2011.00418v1
- Date: Sun, 1 Nov 2020 04:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:55:44.827652
- Title: Monitoring-based Differential Privacy Mechanism Against Query-Flooding
Parameter Duplication Attack
- Title(参考訳): パラメータ重複攻撃に対する監視に基づくディファレンシャルプライバシ機構
- Authors: Haonan Yan, Xiaoguang Li, Hui Li, Jiamin Li, Wenhai Sun and Fenghua Li
- Abstract要約: 適応型クエリフローディングパラメータ重複(QPD)攻撃を提案する。
相手はブラックボックスアクセスでモデル情報を推測することができる。
我々は,この新たな攻撃に対するモニタリングベースDP(MDP)を用いた防衛戦略を開発する。
- 参考スコア(独自算出の注目度): 15.977216274894912
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public intelligent services enabled by machine learning algorithms are
vulnerable to model extraction attacks that can steal confidential information
of the learning models through public queries. Though there are some protection
options such as differential privacy (DP) and monitoring, which are considered
promising techniques to mitigate this attack, we still find that the
vulnerability persists. In this paper, we propose an adaptive query-flooding
parameter duplication (QPD) attack. The adversary can infer the model
information with black-box access and no prior knowledge of any model
parameters or training data via QPD. We also develop a defense strategy using
DP called monitoring-based DP (MDP) against this new attack. In MDP, we first
propose a novel real-time model extraction status assessment scheme called
Monitor to evaluate the situation of the model. Then, we design a method to
guide the differential privacy budget allocation called APBA adaptively.
Finally, all DP-based defenses with MDP could dynamically adjust the amount of
noise added in the model response according to the result from Monitor and
effectively defends the QPD attack. Furthermore, we thoroughly evaluate and
compare the QPD attack and MDP defense performance on real-world models with DP
and monitoring protection.
- Abstract(参考訳): 機械学習アルゴリズムによって実現されるパブリックインテリジェントサービスは、パブリッククエリを通じて学習モデルの機密情報を盗むモデル抽出攻撃に対して脆弱である。
ディファレンシャルプライバシ(dp)や監視などいくつかの保護オプションがあり、この攻撃を軽減するための有望なテクニックと考えられているが、それでも脆弱性は継続している。
本稿では,qpd(adaptive query-flooding parameter duplication)攻撃を提案する。
相手はモデル情報をブラックボックスアクセスで推測することができ、QPDを介してモデルパラメータやトレーニングデータの事前の知識がない。
また,この新たな攻撃に対して,モニタリングベースDP(MDP)と呼ばれるDPを用いた防衛戦略を開発した。
MDPでは,まず,モニタと呼ばれる新しいリアルタイムモデル抽出状況評価手法を提案し,モデルの状態を評価する。
そこで我々はAPBAと呼ばれる差分プライバシー予算配分を適応的に導く手法を設計した。
最後に、MDPを用いたDPベースの防衛は、モニタの結果に応じてモデル応答に付加されるノイズ量を動的に調整し、QPD攻撃を効果的に防御することができる。
さらに,実世界モデルにおけるQPD攻撃とMDP防御性能をDPおよび監視保護と徹底的に比較した。
関連論文リスト
- IBD-PSC: Input-level Backdoor Detection via Parameter-oriented Scaling Consistency [20.61046457594186]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
本稿では、悪意のあるテスト画像のフィルタリングを行うための、シンプルで効果的な入力レベルのバックドア検出(IBD-PSCと呼ばれる)を提案する。
論文 参考訳(メタデータ) (2024-05-16T03:19:52Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - Does Differential Privacy Prevent Backdoor Attacks in Practice? [8.951356689083166]
機械学習モデルにおけるバックドア攻撃防止における差分プライバシー手法の有効性について検討する。
本稿では,DP-SGD と PATE の高速かつ高精度な代替手段として Label-DP を提案する。
論文 参考訳(メタデータ) (2023-11-10T18:32:08Z) - Setting the Trap: Capturing and Defeating Backdoors in Pretrained
Language Models through Honeypots [68.84056762301329]
近年の研究では、バックドア攻撃に対するプレトレーニング言語モデル(PLM)の感受性が明らかにされている。
バックドア情報のみを吸収するために,ハニーポットモジュールをオリジナルのPLMに統合する。
我々の設計は、PLMの低層表現が十分なバックドア特徴を持っているという観察に動機づけられている。
論文 参考訳(メタデータ) (2023-10-28T08:21:16Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - Mitigating Query-Flooding Parameter Duplication Attack on Regression
Models with High-Dimensional Gaussian Mechanism [12.017509695576377]
差分プライバシー(DP)はこの攻撃を緩和する有望な手法と考えられている。
提案手法では,クエリフローディングパラメータ重複(QPD)攻撃によってモデル情報を推測できることを示す。
未承認情報開示を防止するための新しい高次元ガウス(HDG)機構を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:47:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。