論文の概要: Mitigating Query-Flooding Parameter Duplication Attack on Regression
Models with High-Dimensional Gaussian Mechanism
- arxiv url: http://arxiv.org/abs/2002.02061v3
- Date: Sun, 7 Jun 2020 01:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 13:15:28.179240
- Title: Mitigating Query-Flooding Parameter Duplication Attack on Regression
Models with High-Dimensional Gaussian Mechanism
- Title(参考訳): 高次元ガウス機構を持つ回帰モデルにおけるクエリ・フルーディングパラメータ重複攻撃の軽減
- Authors: Xiaoguang Li, Hui Li, Haonan Yan, Zelei Cheng, Wenhai Sun, Hui Zhu
- Abstract要約: 差分プライバシー(DP)はこの攻撃を緩和する有望な手法と考えられている。
提案手法では,クエリフローディングパラメータ重複(QPD)攻撃によってモデル情報を推測できることを示す。
未承認情報開示を防止するための新しい高次元ガウス(HDG)機構を提案する。
- 参考スコア(独自算出の注目度): 12.017509695576377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Public intelligent services enabled by machine learning algorithms are
vulnerable to model extraction attacks that can steal confidential information
of the learning models through public queries. Differential privacy (DP) has
been considered a promising technique to mitigate this attack. However, we find
that the vulnerability persists when regression models are being protected by
current DP solutions. We show that the adversary can launch a query-flooding
parameter duplication (QPD) attack to infer the model information by repeated
queries.
To defend against the QPD attack on logistic and linear regression models, we
propose a novel High-Dimensional Gaussian (HDG) mechanism to prevent
unauthorized information disclosure without interrupting the intended services.
In contrast to prior work, the proposed HDG mechanism will dynamically generate
the privacy budget and random noise for different queries and their results to
enhance the obfuscation. Besides, for the first time, HDG enables an optimal
privacy budget allocation that automatically determines the minimum amount of
noise to be added per user-desired privacy level on each dimension. We
comprehensively evaluate the performance of HDG using real-world datasets and
shows that HDG effectively mitigates the QPD attack while satisfying the
privacy requirements. We also prepare to open-source the relevant codes to the
community for further research.
- Abstract(参考訳): 機械学習アルゴリズムによって実現されるパブリックインテリジェントサービスは、パブリッククエリを通じて学習モデルの機密情報を盗むモデル抽出攻撃に対して脆弱である。
差分プライバシー(DP)はこの攻撃を緩和する有望な手法と考えられている。
しかし、この脆弱性は現在のDPソリューションによって回帰モデルが保護されているときに持続する。
提案手法では,クエリフローディングパラメータ重複(QPD)攻撃を発生させ,繰り返しクエリによるモデル情報の推測を行う。
本稿では,ロジスティックおよび線形回帰モデルに対するqpd攻撃を防御するために,意図するサービスを中断することなく不正な情報開示を防止する新しい高次元ガウス(hdg)機構を提案する。
先行研究とは対照的に,提案するhdg機構は,異なるクエリに対するプライバシ予算とランダムノイズを動的に生成する。
さらに、HDGは初めて最適なプライバシー予算の割り当てを可能にし、各ディメンションでユーザが望むプライバシレベル毎に最小限のノイズを自動的に決定する。
我々は,実世界のデータセットを用いたhdgの性能を総合的に評価し,プライバシー要件を満たしながら,hdgがqpd攻撃を効果的に軽減することを示す。
また、さらなる研究のために、関連するコードをコミュニティにオープンソース化する準備もしています。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Reconciling AI Performance and Data Reconstruction Resilience for
Medical Imaging [52.578054703818125]
人工知能(AI)モデルは、トレーニングデータの情報漏洩に対して脆弱であり、非常に敏感である。
差別化プライバシ(DP)は、定量的なプライバシー予算を設定することで、これらの感受性を回避することを目的としている。
非常に大きなプライバシ予算を使用することで、リコンストラクション攻撃は不可能であり、パフォーマンスの低下は無視可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T12:21:30Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - A Linear Reconstruction Approach for Attribute Inference Attacks against Synthetic Data [1.5293427903448022]
合成データに対する新しい属性推論攻撃を導入する。
攻撃は任意の記録でも極めて正確であることを示す。
次に、プライバシー保護と統計ユーティリティ保護のトレードオフを評価する。
論文 参考訳(メタデータ) (2023-01-24T14:56:36Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Monitoring-based Differential Privacy Mechanism Against Query-Flooding
Parameter Duplication Attack [15.977216274894912]
適応型クエリフローディングパラメータ重複(QPD)攻撃を提案する。
相手はブラックボックスアクセスでモデル情報を推測することができる。
我々は,この新たな攻撃に対するモニタリングベースDP(MDP)を用いた防衛戦略を開発する。
論文 参考訳(メタデータ) (2020-11-01T04:21:48Z) - Rethinking Privacy Preserving Deep Learning: How to Evaluate and Thwart
Privacy Attacks [31.34410250008759]
本稿では、モデル精度と、再構築、追跡、およびメンバーシップ攻撃によるプライバシ損失とのトレードオフを計測する。
実験の結果,モデル精度はベースライン機構と比較して平均5~20%向上した。
論文 参考訳(メタデータ) (2020-06-20T15:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。