論文の概要: Ensembler: Protect Collaborative Inference Privacy from Model Inversion Attack via Selective Ensemble
- arxiv url: http://arxiv.org/abs/2401.10859v2
- Date: Mon, 23 Dec 2024 06:46:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:52:10.369345
- Title: Ensembler: Protect Collaborative Inference Privacy from Model Inversion Attack via Selective Ensemble
- Title(参考訳): Ensembler:Selective Ensembleによるモデル反転攻撃から協調推論プライバシを保護する
- Authors: Dancheng Liu, Chenhui Xu, Jiajie Li, Amir Nassereldine, Jinjun Xiong,
- Abstract要約: エンサンブラ(Ensembler)は、敵によるモデル反転攻撃の実施の難しさを高めるために設計されたフレームワークである。
実験により,クライアントがネットワークの1層のみをローカルに保持している場合でも,エンサンブラはリコンストラクション攻撃から入力イメージを効果的に保護できることを示した。
- 参考スコア(独自算出の注目度): 17.410461161197155
- License:
- Abstract: For collaborative inference through a cloud computing platform, it is sometimes essential for the client to shield its sensitive information from the cloud provider. In this paper, we introduce Ensembler, an extensible framework designed to substantially increase the difficulty of conducting model inversion attacks by adversarial parties. Ensembler leverages selective model ensemble on the adversarial server to obfuscate the reconstruction of the client's private information. Our experiments demonstrate that Ensembler can effectively shield input images from reconstruction attacks, even when the client only retains one layer of the network locally. Ensembler significantly outperforms baseline methods by up to 43.5% in structural similarity while only incurring 4.8% time overhead during inference.
- Abstract(参考訳): クラウドコンピューティングプラットフォームを通じた協調推論には、クライアントがクラウドプロバイダから機密情報を保護することが不可欠である場合もあります。
本稿では,対戦相手によるモデル反転攻撃の実施の難しさを大幅に向上する拡張可能なフレームワークであるEnsemblerを紹介する。
Ensemblerは、クライアントのプライベート情報の再構築を難読化するために、敵サーバ上の選択的モデルアンサンブルを利用する。
実験により,クライアントがネットワークの1層のみをローカルに保持している場合でも,エンサンブラはリコンストラクション攻撃から入力イメージを効果的に保護できることを示した。
アンサンブラは、推論中に4.8%の時間オーバーヘッドしか発生しないが、構造的類似性において、ベースライン法を最大43.5%上回っている。
関連論文リスト
- SafeSplit: A Novel Defense Against Client-Side Backdoor Attacks in Split Learning [53.16528046390881]
Split Learning(SL)は、複数のクライアントとサーバが共同で学習し、共有ディープラーニング(DNN)上で推論できる分散ディープラーニングアプローチである。
本稿では,split Learning(SL)におけるクライアント側のバックドア攻撃に対する最初の防御であるSafeSplitについて述べる。
クライアントが引き起こした変更を特定し、有毒なモデルを検出するために、2倍の分析を使用する。
論文 参考訳(メタデータ) (2025-01-11T22:20:20Z) - Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - A Stealthy Wrongdoer: Feature-Oriented Reconstruction Attack against Split Learning [14.110303634976272]
Split Learning(SL)は、プライバシ保護機能と最小限の計算要件で有名な分散学習フレームワークである。
以前の研究は、トレーニングデータを再構築するサーバ敵によるSLシステムの潜在的なプライバシー侵害について、一貫して強調している。
本稿では,特徴指向再構築攻撃 (FORA) という,SL上での半正直なデータ再構成攻撃について紹介する。
論文 参考訳(メタデータ) (2024-05-07T08:38:35Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FLVoogd: Robust And Privacy Preserving Federated Learning [12.568409209047505]
プライバシを保護しながら,サーバとクライアントが共同でビザンチン攻撃を除去する,新たなフェデレート学習手法であるoogdを提案する。
サーバは、S2PCと組み合わされたDBSCAN(Spatial Clustering of Applications)の自動密度ベースの空間クラスタリングを使用して、機密性の高い個人情報を取得せずに、良質な多数派をクラスタリングする。
私たちのフレームワークは自動で適応的なので、サーバ/クライアントはトレーニング中にパラメータをチューニングする必要がありません。
論文 参考訳(メタデータ) (2022-06-24T08:48:15Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Efficient passive membership inference attack in federated learning [12.878319040684211]
クロスデバイス・フェデレーション・ラーニング(FL)では、モバイルなどのクライアントがサーバと連携してグローバルな機械学習モデルをトレーニングし、データをローカルに保持する。
最近の研究によると、クライアントのプライベート情報は、クライアントとサーバの間で交換されたメッセージを盗聴する相手に開示することができる。
我々は、既存の手法よりもはるかに少ない電力とメモリを必要とする新しいパッシブ推論攻撃を提案する。
論文 参考訳(メタデータ) (2021-10-31T08:21:23Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。