論文の概要: PATROL: Privacy-Oriented Pruning for Collaborative Inference Against
Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2307.10981v1
- Date: Thu, 20 Jul 2023 16:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 12:20:54.373277
- Title: PATROL: Privacy-Oriented Pruning for Collaborative Inference Against
Model Inversion Attacks
- Title(参考訳): PATROL: モデル反転攻撃に対する協調推論のためのプライバシ指向プルーニング
- Authors: Shiwei Ding, Lan Zhang, Miao Pan, Xiaoyong Yuan
- Abstract要約: 協調推論は、リソース制約されたエッジデバイスが最先端のディープニューラルネットワーク(DNN)を使用して推論を実行できるようにする、有望なソリューションである。
近年の研究では、モデルインバージョンアタック(MIA)が中間結果から入力データを再構築し、協調推論に深刻なプライバシー上の懸念を呈している。
本稿では、協調推論のプライバシー、効率、ユーティリティのバランスをとるために、プライバシ指向のプルーニングを開発する。
- 参考スコア(独自算出の注目度): 15.121752347808648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative inference has been a promising solution to enable
resource-constrained edge devices to perform inference using state-of-the-art
deep neural networks (DNNs). In collaborative inference, the edge device first
feeds the input to a partial DNN locally and then uploads the intermediate
result to the cloud to complete the inference. However, recent research
indicates model inversion attacks (MIAs) can reconstruct input data from
intermediate results, posing serious privacy concerns for collaborative
inference. Existing perturbation and cryptography techniques are inefficient
and unreliable in defending against MIAs while performing accurate inference.
This paper provides a viable solution, named PATROL, which develops
privacy-oriented pruning to balance privacy, efficiency, and utility of
collaborative inference. PATROL takes advantage of the fact that later layers
in a DNN can extract more task-specific features. Given limited local resources
for collaborative inference, PATROL intends to deploy more layers at the edge
based on pruning techniques to enforce task-specific features for inference and
reduce task-irrelevant but sensitive features for privacy preservation. To
achieve privacy-oriented pruning, PATROL introduces two key components:
Lipschitz regularization and adversarial reconstruction training, which
increase the reconstruction errors by reducing the stability of MIAs and
enhance the target inference model by adversarial training, respectively.
- Abstract(参考訳): 協調推論(collaborative inference)は、最先端のディープニューラルネットワーク(dnn)を使用してリソース制約のあるエッジデバイスによる推論を可能にする、有望なソリューションである。
協調推論では、エッジデバイスはまず入力を部分dnnにローカルに供給し、その後中間結果をクラウドにアップロードして推論を完了させる。
しかし、近年の研究では、モデル反転攻撃(MIA)は中間結果から入力データを再構築し、協調推論に深刻なプライバシー上の懸念を呈している。
既存の摂動と暗号技術は、正確な推論を行いながらMIAに対する防御において非効率で信頼性が低い。
本稿では,プライバシ,効率性,協調推論の有用性のバランスをとるために,プライバシ指向のプルーニングを開発する。
PATROLは、DNNの後のレイヤがタスク固有の機能を抽出できるという事実を活用する。
協調推論のための限られたローカルリソースを前提として、PATROLは、推論のためのタスク固有の機能を強制し、プライバシ保護のためのタスク非関連だがセンシティブな機能を減らすために、プルーニング技術に基づいて、エッジにより多くのレイヤをデプロイする。
プライバシ指向のプルーニングを実現するために、parioはリプシッツ正則化と、miasの安定性を低下させることによる再構成エラーの増加と、敵のトレーニングによる目標推論モデルの拡張という2つの重要な構成要素を導入している。
関連論文リスト
- Efficient Privacy-Preserving KAN Inference Using Homomorphic Encryption [9.0993556073886]
ホモモルフィック暗号化(HE)は、ディープラーニングモデルのプライバシー保護推論を容易にする。
SiLUアクティベーション関数やB-スプライン関数などの非線形要素を組み込んだkanの複雑な構造は、既存のプライバシ保存推論技術が不十分である。
そこで我々は,kansに適した高精度かつ効率的なプライバシ保護型推論手法を提案する。
論文 参考訳(メタデータ) (2024-09-12T04:51:27Z) - Approximating Two-Layer ReLU Networks for Hidden State Analysis in Differential Privacy [3.8254443661593633]
DP-SGDで訓練した1つの隠蔽層ReLUネットワークに匹敵する,プライバシユーティリティトレードオフによる凸問題をプライベートにトレーニングすることが可能である。
ベンチマーク分類タスクの実験により、NoisyCGDは1層ReLUネットワークに適用されたDP-SGDに匹敵するプライバシー利用トレードオフを達成できることが示された。
論文 参考訳(メタデータ) (2024-07-05T22:43:32Z) - HUWSOD: Holistic Self-training for Unified Weakly Supervised Object Detection [66.42229859018775]
我々は,HUWSOD(HuWSOD)と呼ばれる,統一・高容量弱教師付きオブジェクト検出(WSOD)ネットワークを導入する。
HUWSODには、自己管理された提案生成器と、従来のオブジェクト提案を置き換えるために、マルチレートで再構成されたピラミッドを備えたオートエンコーダ提案生成器が組み込まれている。
提案手法は,よく設計されたオフラインオブジェクト提案と大きく異なるが,WSOD訓練には有効であることを示す。
論文 参考訳(メタデータ) (2024-06-27T17:59:49Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Grad-FEC: Unequal Loss Protection of Deep Features in Collaborative
Intelligence [27.135997578218486]
コラボレーションインテリジェンス(CI)では、人工知能(AI)モデルを、エッジデバイスにデプロイされるフロントエンドと、クラウドにデプロイされるバックエンドの2つの部分に分割する。
フロントエンドによって生成された深い特徴テンソルは、通信チャネルを介してクラウドに送信され、パケットロスを受ける可能性がある。
Unequal Loss Protection (ULP) によるパケット損失の存在下でのCIシステムのレジリエンスを高めるための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-04T17:49:46Z) - Secure Split Learning against Property Inference, Data Reconstruction,
and Feature Space Hijacking Attacks [5.209316363034367]
ディープニューラルネットワーク(SplitNN)の分割学習は、ゲストとホストの相互関心のために共同で学習するための有望なソリューションを提供する。
SplitNNは、敵の参加者のための新たな攻撃面を作成し、現実の世界での使用を抑える。
本稿では,プロパティ推論,データ再構成,特徴的ハイジャック攻撃など,高度に脅かされる攻撃の敵対的効果について検討する。
本稿では,R3eLUという新たなアクティベーション関数を提案する。
論文 参考訳(メタデータ) (2023-04-19T09:08:23Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Privacy for Rescue: A New Testimony Why Privacy is Vulnerable In Deep
Models [6.902994369582068]
エッジクラウドシステム実行モデルにおけるプライバシ保護問題の形式的定義を示す。
我々は最先端の手法を分析し、それらの手法の欠点を指摘する。
本稿では,プライバシー保護手法の有効性を評価するために,より正確な2つの指標を提案する。
論文 参考訳(メタデータ) (2019-12-31T15:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。