論文の概要: Covert Attacks on Machine Learning Training in Passively Secure MPC
- arxiv url: http://arxiv.org/abs/2505.17092v1
- Date: Wed, 21 May 2025 00:46:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.552214
- Title: Covert Attacks on Machine Learning Training in Passively Secure MPC
- Title(参考訳): パッシブセキュアMPCにおける機械学習教育の包括的攻撃
- Authors: Matthew Jagielski, Daniel Escudero, Rahul Rachuri, Peter Scholl,
- Abstract要約: マルチパーティ計算(MPC)により、データ所有者は、基礎となるトレーニングデータをプライベートに保ちながら、複合データ上でマシンラーニングモデルをトレーニングすることができる。
MPC脅威モデルは、全体行動に影響を与えることなく一部の政党を受動的に破壊する敵や、腐敗した政党の行動を積極的に修正する敵を考察する。
本研究では,既存のMPCトレーニングプロトコル上で,アクティブな相手が実行可能な,明示的でシンプルで効果的な攻撃方法を示す。
- 参考スコア(独自算出の注目度): 24.724860700532112
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Secure multiparty computation (MPC) allows data owners to train machine learning models on combined data while keeping the underlying training data private. The MPC threat model either considers an adversary who passively corrupts some parties without affecting their overall behavior, or an adversary who actively modifies the behavior of corrupt parties. It has been argued that in some settings, active security is not a major concern, partly because of the potential risk of reputation loss if a party is detected cheating. In this work we show explicit, simple, and effective attacks that an active adversary can run on existing passively secure MPC training protocols, while keeping essentially zero risk of the attack being detected. The attacks we show can compromise both the integrity and privacy of the model, including attacks reconstructing exact training data. Our results challenge the belief that a threat model that does not include malicious behavior by the involved parties may be reasonable in the context of PPML, motivating the use of actively secure protocols for training.
- Abstract(参考訳): セキュアなマルチパーティ計算(MPC)により、データ所有者は、基礎となるトレーニングデータをプライベートに保ちながら、組み合わせたデータ上でマシンラーニングモデルをトレーニングすることができる。
MPCの脅威モデルは、全体行動に影響を与えることなく一部の政党を受動的に腐敗させた敵や、腐敗した政党の行動を積極的に修正した敵を考察する。
ある設定では、ある政党が不正行為を検出された場合、評判が損なわれるリスクがあるため、アクティブなセキュリティが大きな懸念事項ではない、と論じられている。
本研究では,攻撃が検出されるリスクを本質的にゼロに抑えつつ,アクティブな敵が既存の受動的にセキュアなMPCトレーニングプロトコル上で実行可能であることを明らかにする。
私たちが示した攻撃は、正確なトレーニングデータを再構築する攻撃を含む、モデルの完全性とプライバシの両方を損なう可能性がある。
本研究は、PPMLの文脈において、関係当事者による悪意ある行為を含まない脅威モデルが合理的であるとの信念に異議を唱え、積極的にセキュアなプロトコルをトレーニングに活用する動機付けを行った。
関連論文リスト
- On the Conflict of Robustness and Learning in Collaborative Machine Learning [9.372984119950765]
コラボレーション機械学習(CML)は、参加者がトレーニングデータをプライベートに保ちながら、機械学習モデルを共同でトレーニングすることを可能にする。
CMLが健康関連のアプリケーションのようなプライバシー問題に対する解決策と見なされる多くのシナリオでは、安全性も主要な関心事である。
CMLプロセスが正確で信頼性の高い決定を出力するモデルを生成することを保証するため、研究者はテキストトロバストアグリゲータの使用を提案する。
論文 参考訳(メタデータ) (2024-02-21T11:04:23Z) - Differentially Private and Adversarially Robust Machine Learning: An
Empirical Evaluation [2.8084422332394428]
悪意のある敵は、一連の回避攻撃を起動することで、機械学習モデルに攻撃して機密情報を推測したり、システムにダメージを与えたりすることができる。
本研究は,同時攻撃に対する対人訓練と対人訓練の併用について検討した。
論文 参考訳(メタデータ) (2024-01-18T22:26:31Z) - A Robust Adversary Detection-Deactivation Method for Metaverse-oriented
Collaborative Deep Learning [13.131323206843733]
本稿では,潜在的な悪意のある参加者のアクセスを制限し,隔離する逆検出・不活性化手法を提案する。
また,Multiview CDLのケースで詳細な保護分析を行い,その手法を用いて,有害アクセスを効果的に防止できることを示した。
論文 参考訳(メタデータ) (2023-10-21T06:45:18Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Certified Federated Adversarial Training [3.474871319204387]
我々は、労働者のクォーラムが完全に悪意のある場合、FLシステムに敵の訓練を施すシナリオに取り組む。
我々は、モデルに毒を盛ったアタッカーをモデル化し、そのモデルが明らかに敵の堅牢性を示すように、敵の訓練に弱点を挿入する。
この防御は、アダプティブアタックに対してさえも、敵の堅牢性を維持することができることを示す。
論文 参考訳(メタデータ) (2021-12-20T13:40:20Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。