論文の概要: PEEL the Layers and Find Yourself: Revisiting Inference-time Data Leakage for Residual Neural Networks
- arxiv url: http://arxiv.org/abs/2504.06410v1
- Date: Tue, 08 Apr 2025 20:11:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:07:40.279715
- Title: PEEL the Layers and Find Yourself: Revisiting Inference-time Data Leakage for Residual Neural Networks
- Title(参考訳): PEEL the Layers and Find Yourself: Revisiting Inference-time Data Leakage for Residual Neural Networks
- Authors: Huzaifa Arif, Keerthiram Murugesan, Payel Das, Alex Gittens, Pin-Yu Chen,
- Abstract要約: 本稿では、ディープニューラルネットワーク(NN)の推論時データ漏洩リスクについて検討する。
残差NNの中間出力からブロックワイズ入力特徴を効果的に回収できる新しい後方特徴逆変換法である textbfPEEL を提案する。
その結果,平均二乗誤差 (MSE) で評価した場合,PEEL は最先端の回収方法よりも桁違いに優れていることがわかった。
- 参考スコア(独自算出の注目度): 64.90981115460937
- License:
- Abstract: This paper explores inference-time data leakage risks of deep neural networks (NNs), where a curious and honest model service provider is interested in retrieving users' private data inputs solely based on the model inference results. Particularly, we revisit residual NNs due to their popularity in computer vision and our hypothesis that residual blocks are a primary cause of data leakage owing to the use of skip connections. By formulating inference-time data leakage as a constrained optimization problem, we propose a novel backward feature inversion method, \textbf{PEEL}, which can effectively recover block-wise input features from the intermediate output of residual NNs. The surprising results in high-quality input data recovery can be explained by the intuition that the output from these residual blocks can be considered as a noisy version of the input and thus the output retains sufficient information for input recovery. We demonstrate the effectiveness of our layer-by-layer feature inversion method on facial image datasets and pre-trained classifiers. Our results show that PEEL outperforms the state-of-the-art recovery methods by an order of magnitude when evaluated by mean squared error (MSE). The code is available at \href{https://github.com/Huzaifa-Arif/PEEL}{https://github.com/Huzaifa-Arif/PEEL}
- Abstract(参考訳): 本稿では,ニューラルネットワーク(NN)における推論時データ漏洩リスクについて考察する。そこでは,好奇心と誠実なモデルサービスプロバイダが,モデル推論結果のみに基づいて,ユーザのプライベートデータ入力を検索することに関心を持っている。
特に,コンピュータビジョンにおける残差NNの再検討と,残差ブロックがスキップ接続の利用によるデータ漏洩の主な原因であるという仮説について述べる。
Inference-time Data leakage を制約付き最適化問題として定式化することにより、残留NNの中間出力からブロックワイズ入力特徴を効果的に回復する新しい後方特徴逆変換法である \textbf{PEEL} を提案する。
高品質な入力データ復元における驚くべき結果は、これらの残差ブロックからの出力が入力のノイズバージョンとみなすことができるという直感によって説明できるので、出力は入力回復に十分な情報を保持することができる。
顔画像データセットと事前学習した分類器に対する層間特徴反転法の有効性を実証する。
その結果,PEELは平均二乗誤差 (MSE) で評価した場合, 最先端の回収方法よりも桁違いに優れていることがわかった。
コードは \href{https://github.com/Huzaifa-Arif/PEEL}{https://github.com/Huzaifa-Arif/PEEL} で公開されている。
関連論文リスト
- On Sequential Maximum a Posteriori Inference for Continual Learning [0.0]
損失関数の再帰として逐次最大化を定式化し、損失関数を近似するために連続学習の問題を減らした。
本稿では,2次近似を用いたオートディフ2次積分法と,ニューラルネットワーク近似を用いたニューラルコンソリデーションという2つのコアセットフリー手法を提案する。
ニューラルコンソリデーションは、入力次元が小さい古典的なタスクシーケンスでは良好に機能し、オートディフ二次コンソリデーションは、固定された事前訓練された特徴抽出器を持つイメージタスクシーケンスでは一貫して良好に機能する。
論文 参考訳(メタデータ) (2024-05-26T09:20:47Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Sample Complexity of Preference-Based Nonparametric Off-Policy
Evaluation with Deep Networks [58.469818546042696]
我々は、OPEのサンプル効率を人間の好みで研究し、その統計的保証を確立する。
ReLUネットワークのサイズを適切に選択することにより、マルコフ決定過程において任意の低次元多様体構造を活用できることが示される。
論文 参考訳(メタデータ) (2023-10-16T16:27:06Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - SalFBNet: Learning Pseudo-Saliency Distribution via Feedback
Convolutional Networks [8.195696498474579]
本稿では,サリエンシ検出のためのフィードバック再帰的畳み込みフレームワーク(SalFBNet)を提案する。
大規模Pseudo-Saliencyデータセットを作成し、唾液度検出におけるデータ不足の問題を軽減する。
論文 参考訳(メタデータ) (2021-12-07T14:39:45Z) - Robust lEarned Shrinkage-Thresholding (REST): Robust unrolling for
sparse recover [87.28082715343896]
我々は、モデルミス特定を前進させるのに堅牢な逆問題を解決するためのディープニューラルネットワークについて検討する。
我々は,アルゴリズムの展開手法を根底にある回復問題のロバストバージョンに適用することにより,新しい堅牢なディープニューラルネットワークアーキテクチャを設計する。
提案したRESTネットワークは,圧縮センシングとレーダイメージングの両問題において,最先端のモデルベースおよびデータ駆動アルゴリズムを上回る性能を示す。
論文 参考訳(メタデータ) (2021-10-20T06:15:45Z) - RED++ : Data-Free Pruning of Deep Neural Networks via Input Splitting
and Output Merging [36.027765880474526]
Pruning Deep Neural Networks (DNN) は、推論ランタイムアクセラレーションの目標において、顕著な研究分野である。
本稿では,新しいデータフリープルーニングプロトコルRED++を紹介する。
ハッシュによる精度の保存に関する理論的および実証的な保証について検討する。
論文 参考訳(メタデータ) (2021-09-30T09:31:11Z) - PC-GAIN: Pseudo-label Conditional Generative Adversarial Imputation
Networks for Incomplete Data [19.952411963344556]
PC-GAIN(PC-GAIN)は、PC-GAIN(PC-GAIN)と呼ばれる新しい教師なしデータ計算法である。
まず,低損失率データのサブセットに含まれる潜在的なカテゴリ情報を学習するための事前学習手順を提案する。
そして、合成擬似ラベルを用いて補助分類器を決定する。
論文 参考訳(メタデータ) (2020-11-16T08:08:26Z) - Forgetting Outside the Box: Scrubbing Deep Networks of Information
Accessible from Input-Output Observations [143.3053365553897]
本稿では、訓練された深層ネットワークからトレーニングデータのコホートへの依存を取り除く手順について述べる。
忘れられたコホートについて,クエリ毎にどれだけの情報を取り出すことができるか,という新たな境界を導入する。
我々は,ニューラルタンジェントカーネルにインスパイアされたDNNのアクティベーションとウェイトダイナミクスの接続を利用して,アクティベーションの情報を計算する。
論文 参考訳(メタデータ) (2020-03-05T23:17:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。