論文の概要: What Your Features Reveal: Data-Efficient Black-Box Feature Inversion Attack for Split DNNs
- arxiv url: http://arxiv.org/abs/2511.15316v1
- Date: Wed, 19 Nov 2025 10:30:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.759942
- Title: What Your Features Reveal: Data-Efficient Black-Box Feature Inversion Attack for Split DNNs
- Title(参考訳): データ効率のよいブラックボックス・フィーチャー・インバージョン・アタックによるDNN分割
- Authors: Zhihan Ren, Lijun He, Jiaxi Liang, Xinzhu Fu, Haixia Bi, Fan Li,
- Abstract要約: 中間特徴から高忠実度画像再構成を実現するブラックボックスFIAフレームワークであるFIA-Flowを紹介する。
中間機能内の意味情報を活用するため,我々はLFSAM (Latent Feature Space Alignment Module) を設計した。
また, 1ステップの推論で, 対象多様体にオフマニフォールドな特徴を投影する決定論的逆流マッチング (DIFM) も開発した。
- 参考スコア(独自算出の注目度): 5.988873107191178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split DNNs enable edge devices by offloading intensive computation to a cloud server, but this paradigm exposes privacy vulnerabilities, as the intermediate features can be exploited to reconstruct the private inputs via Feature Inversion Attack (FIA). Existing FIA methods often produce limited reconstruction quality, making it difficult to assess the true extent of privacy leakage. To reveal the privacy risk of the leaked features, we introduce FIA-Flow, a black-box FIA framework that achieves high-fidelity image reconstruction from intermediate features. To exploit the semantic information within intermediate features, we design a Latent Feature Space Alignment Module (LFSAM) to bridge the semantic gap between the intermediate feature space and the latent space. Furthermore, to rectify distributional mismatch, we develop Deterministic Inversion Flow Matching (DIFM), which projects off-manifold features onto the target manifold with one-step inference. This decoupled design simplifies learning and enables effective training with few image-feature pairs. To quantify privacy leakage from a human perspective, we also propose two metrics based on a large vision-language model. Experiments show that FIA-Flow achieves more faithful and semantically aligned feature inversion across various models (AlexNet, ResNet, Swin Transformer, DINO, and YOLO11) and layers, revealing a more severe privacy threat in Split DNNs than previously recognized.
- Abstract(参考訳): 分割されたDNNは、クラウドサーバに集約的な計算をオフロードすることでエッジデバイスを可能にするが、このパラダイムはプライバシの脆弱性を露呈する。
既存のFIA手法は、しばしば限られた復元品質をもたらすため、プライバシリークの真の程度を評価することは困難である。
リークした特徴のプライバシーリスクを明らかにするために,中間特徴から高忠実度画像再構成を実現するブラックボックスFIAフレームワークであるFIA-Flowを導入する。
中間特徴空間と潜在空間のセマンティックギャップを埋めるために,中間特徴空間内の意味情報を活用するためにLFSAM (Latent Feature Space Alignment Module) を設計する。
さらに,分布ミスマッチを正すために,対象多様体に1ステップの推論で特徴を投影する決定論的逆流マッチング (DIFM) を開発した。
この分離された設計は、学習を単純化し、画像と画像のペアをほとんど持たない効果的なトレーニングを可能にする。
また,人間の視点からプライバシー漏洩を定量化するために,大きな視覚言語モデルに基づく2つの指標を提案する。
実験の結果、FIA-Flowはさまざまなモデル(AlexNet、ResNet、Swin Transformer、DINO、YOLO11)とレイヤにまたがって、より忠実でセマンティックに整合した機能インバージョンを実現し、これまで認識されていたよりもスプリットDNNにおけるより深刻なプライバシー上の脅威を明らかにしている。
関連論文リスト
- Feature Space Analysis by Guided Diffusion Model [0.0]
Deep Neural Networks(DNN)の重要な問題のひとつは、内部的特徴抽出プロセスのブラックボックスの性質にある。
本稿では,ユーザが指定した特徴と密に一致した特徴を保証した画像を生成するデコーダを提案する。
論文 参考訳(メタデータ) (2025-09-09T17:18:39Z) - Unlocking Visual Secrets: Inverting Features with Diffusion Priors for Image Reconstruction [29.863847574047792]
ディープニューラルネットワーク(DNN)内の視覚表現を反転させることは、ディープラーニングのセキュリティとプライバシの分野において、困難かつ重要な問題である。
本稿では,画像合成の有望な手法である拡散モデルを用いて,特徴の反転品質を向上させることを提案する。
その結果,拡散モデルではDNNの特徴から隠れた情報を効果的に活用できることがわかった。
論文 参考訳(メタデータ) (2024-12-11T20:24:15Z) - A Closer Look at GAN Priors: Exploiting Intermediate Features for Enhanced Model Inversion Attacks [43.98557963966335]
Model Inversion (MI)攻撃は、出力情報を利用して、リリースされたモデルからプライバシーに敏感なトレーニングデータを再構築することを目的としている。
GAN(Generative Adversarial Network)の最近の進歩は、MI攻撃の性能向上に大きく貢献している。
本稿では,GAN構造を分解し,中間ブロック間の特徴を利用する中間特徴拡張生成モデル変換(IF-GMI)を提案する。
論文 参考訳(メタデータ) (2024-07-18T19:16:22Z) - Bringing Masked Autoencoders Explicit Contrastive Properties for Point Cloud Self-Supervised Learning [116.75939193785143]
画像領域における視覚変換器(ViT)のコントラスト学習(CL)は、従来の畳み込みバックボーンのCLに匹敵する性能を達成した。
ViTで事前訓練した3Dポイントクラウドでは、マスク付きオートエンコーダ(MAE)モデリングが主流である。
論文 参考訳(メタデータ) (2024-07-08T12:28:56Z) - Mutual-Guided Dynamic Network for Image Fusion [51.615598671899335]
画像融合のための新しい相互誘導動的ネットワーク(MGDN)を提案する。
5つのベンチマークデータセットによる実験結果から,提案手法は4つの画像融合タスクにおいて既存手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-24T03:50:37Z) - PATROL: Privacy-Oriented Pruning for Collaborative Inference Against
Model Inversion Attacks [15.257413246220032]
協調推論は、リソース制約されたエッジデバイスが最先端のディープニューラルネットワーク(DNN)を使用して推論を実行できるようにする、有望なソリューションである。
近年の研究では、モデルインバージョンアタック(MIA)が中間結果から入力データを再構築し、協調推論に深刻なプライバシー上の懸念を呈している。
本稿では、プライバシ指向のプルーニングを開発し、協調推論のプライバシ、効率、実用性をバランスさせる、PATROLと呼ばれる実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-07-20T16:09:07Z) - EPNet++: Cascade Bi-directional Fusion for Multi-Modal 3D Object
Detection [56.03081616213012]
本稿では,新しいCasscade Bi-directional Fusion(CB-Fusion)モジュールを導入することで,マルチモーダル3Dオブジェクト検出のためのEPNet++を提案する。
提案したCB-Fusionモジュールは、カスケード双方向相互作用融合方式で画像特徴と点特徴の豊富な意味情報を高める。
KITTI、JRDB、SUN-RGBDデータセットの実験結果は、最先端の手法よりもEPNet++の方が優れていることを示している。
論文 参考訳(メタデータ) (2021-12-21T10:48:34Z) - EPMF: Efficient Perception-aware Multi-sensor Fusion for 3D Semantic Segmentation [62.210091681352914]
自律運転やロボティクスなど,多くのアプリケーションを対象とした3次元セマンティックセマンティックセグメンテーションのためのマルチセンサフュージョンについて検討する。
本研究では,知覚認識型マルチセンサフュージョン(PMF)と呼ばれる協調融合方式について検討する。
本稿では,2つのモードから特徴を分離して抽出する2ストリームネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-21T10:47:26Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。