論文の概要: PATROL: Privacy-Oriented Pruning for Collaborative Inference Against
Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2307.10981v1
- Date: Thu, 20 Jul 2023 16:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 12:20:54.373277
- Title: PATROL: Privacy-Oriented Pruning for Collaborative Inference Against
Model Inversion Attacks
- Title(参考訳): PATROL: モデル反転攻撃に対する協調推論のためのプライバシ指向プルーニング
- Authors: Shiwei Ding, Lan Zhang, Miao Pan, Xiaoyong Yuan
- Abstract要約: 協調推論は、リソース制約されたエッジデバイスが最先端のディープニューラルネットワーク(DNN)を使用して推論を実行できるようにする、有望なソリューションである。
近年の研究では、モデルインバージョンアタック(MIA)が中間結果から入力データを再構築し、協調推論に深刻なプライバシー上の懸念を呈している。
本稿では、協調推論のプライバシー、効率、ユーティリティのバランスをとるために、プライバシ指向のプルーニングを開発する。
- 参考スコア(独自算出の注目度): 15.121752347808648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative inference has been a promising solution to enable
resource-constrained edge devices to perform inference using state-of-the-art
deep neural networks (DNNs). In collaborative inference, the edge device first
feeds the input to a partial DNN locally and then uploads the intermediate
result to the cloud to complete the inference. However, recent research
indicates model inversion attacks (MIAs) can reconstruct input data from
intermediate results, posing serious privacy concerns for collaborative
inference. Existing perturbation and cryptography techniques are inefficient
and unreliable in defending against MIAs while performing accurate inference.
This paper provides a viable solution, named PATROL, which develops
privacy-oriented pruning to balance privacy, efficiency, and utility of
collaborative inference. PATROL takes advantage of the fact that later layers
in a DNN can extract more task-specific features. Given limited local resources
for collaborative inference, PATROL intends to deploy more layers at the edge
based on pruning techniques to enforce task-specific features for inference and
reduce task-irrelevant but sensitive features for privacy preservation. To
achieve privacy-oriented pruning, PATROL introduces two key components:
Lipschitz regularization and adversarial reconstruction training, which
increase the reconstruction errors by reducing the stability of MIAs and
enhance the target inference model by adversarial training, respectively.
- Abstract(参考訳): 協調推論(collaborative inference)は、最先端のディープニューラルネットワーク(dnn)を使用してリソース制約のあるエッジデバイスによる推論を可能にする、有望なソリューションである。
協調推論では、エッジデバイスはまず入力を部分dnnにローカルに供給し、その後中間結果をクラウドにアップロードして推論を完了させる。
しかし、近年の研究では、モデル反転攻撃(MIA)は中間結果から入力データを再構築し、協調推論に深刻なプライバシー上の懸念を呈している。
既存の摂動と暗号技術は、正確な推論を行いながらMIAに対する防御において非効率で信頼性が低い。
本稿では,プライバシ,効率性,協調推論の有用性のバランスをとるために,プライバシ指向のプルーニングを開発する。
PATROLは、DNNの後のレイヤがタスク固有の機能を抽出できるという事実を活用する。
協調推論のための限られたローカルリソースを前提として、PATROLは、推論のためのタスク固有の機能を強制し、プライバシ保護のためのタスク非関連だがセンシティブな機能を減らすために、プルーニング技術に基づいて、エッジにより多くのレイヤをデプロイする。
プライバシ指向のプルーニングを実現するために、parioはリプシッツ正則化と、miasの安定性を低下させることによる再構成エラーの増加と、敵のトレーニングによる目標推論モデルの拡張という2つの重要な構成要素を導入している。
関連論文リスト
- Cross-Domain Few-Shot Learning via Adaptive Transformer Networks [16.289485655725013]
本稿では,ドメイン間数ショット学習のための適応型トランスフォーマネットワーク(ADAPTER)を提案する。
ADAPTERは2つのドメイン間で伝達可能な特徴を学習するために双方向の相互注意というアイデアに基づいて構築されている。
論文 参考訳(メタデータ) (2024-01-25T07:05:42Z) - Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Grad-FEC: Unequal Loss Protection of Deep Features in Collaborative
Intelligence [27.135997578218486]
コラボレーションインテリジェンス(CI)では、人工知能(AI)モデルを、エッジデバイスにデプロイされるフロントエンドと、クラウドにデプロイされるバックエンドの2つの部分に分割する。
フロントエンドによって生成された深い特徴テンソルは、通信チャネルを介してクラウドに送信され、パケットロスを受ける可能性がある。
Unequal Loss Protection (ULP) によるパケット損失の存在下でのCIシステムのレジリエンスを高めるための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-04T17:49:46Z) - Secure Split Learning against Property Inference, Data Reconstruction,
and Feature Space Hijacking Attacks [5.209316363034367]
ディープニューラルネットワーク(SplitNN)の分割学習は、ゲストとホストの相互関心のために共同で学習するための有望なソリューションを提供する。
SplitNNは、敵の参加者のための新たな攻撃面を作成し、現実の世界での使用を抑える。
本稿では,プロパティ推論,データ再構成,特徴的ハイジャック攻撃など,高度に脅かされる攻撃の敵対的効果について検討する。
本稿では,R3eLUという新たなアクティベーション関数を提案する。
論文 参考訳(メタデータ) (2023-04-19T09:08:23Z) - Function Composition in Trustworthy Machine Learning: Implementation
Choices, Insights, and Questions [28.643482049799477]
本稿では,信頼感の異なる「柱」から生じる機能の構成に焦点を当てる。
実世界の信頼に値する7つの次元 - 公正さと説明可能性 - に関する実験結果と新たな知見を報告する。
また,複数の柱からの機能の組み合わせを促すために,作曲家ツールの進捗状況と実装選択について報告する。
論文 参考訳(メタデータ) (2023-02-17T23:49:16Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Privacy for Rescue: A New Testimony Why Privacy is Vulnerable In Deep
Models [6.902994369582068]
エッジクラウドシステム実行モデルにおけるプライバシ保護問題の形式的定義を示す。
我々は最先端の手法を分析し、それらの手法の欠点を指摘する。
本稿では,プライバシー保護手法の有効性を評価するために,より正確な2つの指標を提案する。
論文 参考訳(メタデータ) (2019-12-31T15:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。