論文の概要: Backdoor Detection through Replicated Execution of Outsourced Training
- arxiv url: http://arxiv.org/abs/2504.00170v1
- Date: Mon, 31 Mar 2025 19:26:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:26:09.373163
- Title: Backdoor Detection through Replicated Execution of Outsourced Training
- Title(参考訳): アウトソーストレーニングの繰り返し実施によるバックドア検出
- Authors: Hengrui Jia, Sierra Wyllie, Akram Bin Sediq, Ahmed Ibrahim, Nicolas Papernot,
- Abstract要約: 複数のクラウドプロバイダにアクセス可能なクライアントは、トレーニング手順から逸脱を検出するために、複数のサーバにまたがるトレーニングステップのサブセットを複製できることを示す。
バックドアに要するモデル更新とクリーンなトレーニングの結果のモデルアップデートとで、悪意のあるサーバを特定します。
- 参考スコア(独自算出の注目度): 34.202306551388396
- License:
- Abstract: It is common practice to outsource the training of machine learning models to cloud providers. Clients who do so gain from the cloud's economies of scale, but implicitly assume trust: the server should not deviate from the client's training procedure. A malicious server may, for instance, seek to insert backdoors in the model. Detecting a backdoored model without prior knowledge of both the backdoor attack and its accompanying trigger remains a challenging problem. In this paper, we show that a client with access to multiple cloud providers can replicate a subset of training steps across multiple servers to detect deviation from the training procedure in a similar manner to differential testing. Assuming some cloud-provided servers are benign, we identify malicious servers by the substantial difference between model updates required for backdooring and those resulting from clean training. Perhaps the strongest advantage of our approach is its suitability to clients that have limited-to-no local compute capability to perform training; we leverage the existence of multiple cloud providers to identify malicious updates without expensive human labeling or heavy computation. We demonstrate the capabilities of our approach on an outsourced supervised learning task where $50\%$ of the cloud providers insert their own backdoor; our approach is able to correctly identify $99.6\%$ of them. In essence, our approach is successful because it replaces the signature-based paradigm taken by existing approaches with an anomaly-based detection paradigm. Furthermore, our approach is robust to several attacks from adaptive adversaries utilizing knowledge of our detection scheme.
- Abstract(参考訳): マシンラーニングモデルのトレーニングをクラウドプロバイダにアウトソースするのは、一般的なプラクティスです。
クラウドのスケール経済から利益を得るが、暗黙的に信頼を仮定する: サーバはクライアントのトレーニング手順から逸脱するべきではない。
例えば、悪意のあるサーバは、モデルにバックドアを挿入しようとするかもしれない。
バックドア攻撃とそれに伴うトリガーの両方について事前知識のないバックドアモデルを検出することは、依然として困難な問題である。
本稿では、複数のクラウドプロバイダにアクセス可能なクライアントが、複数のサーバにまたがるトレーニング手順のサブセットを複製して、差分テストと同じような方法でトレーニング手順からの逸脱を検出することができることを示す。
クラウドが提供するいくつかのサーバが良心的であると仮定すると、バックドアに必要なモデル更新とクリーンなトレーニングの結果のモデルアップデートとの大きな違いによって、悪意のあるサーバを識別します。
当社のアプローチの最大のメリットは、トレーニングを実行するためのローカルに限定されたローカルな計算能力を持つクライアントに対する適合性です。
当社のアプローチは,クラウドプロバイダの50\%が独自のバックドアを挿入する,アウトソース型の教師付き学習タスクにおいて,その能力を実証しています。
提案手法は,既存の手法によるシグネチャベースのパラダイムを,異常に基づく検出パラダイムに置き換えることによって,基本的には成功している。
さらに,本手法は,本手法の知識を生かした適応的敵からの攻撃に対して頑健である。
関連論文リスト
- SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning (Full Version) [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - Backdoor Cleansing with Unlabeled Data [70.29989887008209]
外部訓練されたディープニューラルネットワーク(DNN)は、バックドア攻撃を受ける可能性がある。
トレーニングラベルを必要としない新しい防衛手法を提案する。
ラベルなしで訓練された本手法は,ラベルを用いて訓練した最先端の防御手法と同等である。
論文 参考訳(メタデータ) (2022-11-22T06:29:30Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - Planting Undetectable Backdoors in Machine Learning Models [14.592078676445201]
悪意ある学習者が検出不能なバックドアを分類器に組み込む方法を示す。
適切な"バックドアキー"がなければ、そのメカニズムは隠され、計算に拘束されたオブザーバによって検出できない。
検出不能なバックドアを植え付けるための2つのフレームワークを示す。
論文 参考訳(メタデータ) (2022-04-14T13:55:21Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - WAFFLE: Watermarking in Federated Learning [14.598085887204805]
フェデレーション学習(Federated Learning)は、マシンラーニングモデルがクライアントデバイス上でトレーニングされる分散学習技術である。
我々は、フェデレート学習を用いてトレーニングされた透かしモデルに対する最初のアプローチであるWAFFLEを提案する。
WAFFLEは, 試験精度の劣化しか生じないモデルに, レジリエントな透かしを効率よく埋め込むことを示した。
論文 参考訳(メタデータ) (2020-08-17T13:27:45Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Blind Backdoors in Deep Learning Models [22.844973592524966]
本稿では,機械学習モデルにバックドアを注入する新しい手法について検討する。
従来の文献よりも厳格に強力なバックドアの新たなクラスを実証するために使用しています。
攻撃者はトレーニングデータを変更したり、コードの実行を観察したり、結果のモデルにアクセスしたりすることができません。
論文 参考訳(メタデータ) (2020-05-08T02:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。