論文の概要: DRAG: Data Reconstruction Attack using Guided Diffusion
- arxiv url: http://arxiv.org/abs/2509.11724v1
- Date: Mon, 15 Sep 2025 09:26:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.217086
- Title: DRAG: Data Reconstruction Attack using Guided Diffusion
- Title(参考訳): DRAG:ガイド拡散を用いたデータ再構成攻撃
- Authors: Wa-Kin Lei, Jun-Cheng Chen, Shang-Tse Chen,
- Abstract要約: 本稿では,大規模データセットに事前学習した潜在拡散モデル(LDM)に埋め込まれた豊富な事前知識を活用する,ガイド付き拡散に基づく新しいデータ再構成攻撃を提案する。
本手法は,視覚基礎モデルの深層赤外線からのデータ再構成において,定性的かつ定量的に,最先端の手法よりも優れる。
- 参考スコア(独自算出の注目度): 20.2532929124365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rise of large foundation models, split inference (SI) has emerged as a popular computational paradigm for deploying models across lightweight edge devices and cloud servers, addressing data privacy and computational cost concerns. However, most existing data reconstruction attacks have focused on smaller CNN classification models, leaving the privacy risks of foundation models in SI settings largely unexplored. To address this gap, we propose a novel data reconstruction attack based on guided diffusion, which leverages the rich prior knowledge embedded in a latent diffusion model (LDM) pre-trained on a large-scale dataset. Our method performs iterative reconstruction on the LDM's learned image prior, effectively generating high-fidelity images resembling the original data from their intermediate representations (IR). Extensive experiments demonstrate that our approach significantly outperforms state-of-the-art methods, both qualitatively and quantitatively, in reconstructing data from deep-layer IRs of the vision foundation model. The results highlight the urgent need for more robust privacy protection mechanisms for large models in SI scenarios. Code is available at: https://github.com/ntuaislab/DRAG.
- Abstract(参考訳): 大規模な基盤モデルの台頭に伴い、スプリット推論(SI)は、データプライバシと計算コストの懸念に対処して、軽量エッジデバイスとクラウドサーバにモデルをデプロイするための一般的な計算パラダイムとして登場した。
しかし、既存のデータ再構成攻撃のほとんどは、より小さなCNN分類モデルに焦点を当てており、SI設定における基礎モデルのプライバシーリスクはほとんど探索されていない。
このギャップに対処するために,大規模データセット上に事前学習した潜在拡散モデル(LDM)に埋め込まれた豊富な事前知識を活用する,ガイド付き拡散に基づく新しいデータ再構成攻撃を提案する。
本手法は, LDMの学習画像に先行して反復的再構成を行い, その中間表現(IR)から元のデータに似た高忠実度画像を効果的に生成する。
広汎な実験により,本手法は視覚基礎モデルの深層赤外線からのデータ再構成において,定性的かつ定量的に,最先端の手法を著しく上回っていることが示された。
その結果、SIシナリオにおける大規模モデルに対するより堅牢なプライバシ保護メカニズムの緊急性の必要性が浮き彫りになった。
コードは、https://github.com/ntuaislab/DRAG.comで入手できる。
関連論文リスト
- Revisiting the Privacy Risks of Split Inference: A GAN-Based Data Reconstruction Attack via Progressive Feature Optimization [49.32786615205064]
Split Inference (SI)は、エッジデバイスとクラウドの間の計算を分割することで、レイテンシを低減し、ユーザのプライバシを保護する。
データ再構成攻撃(DRA)の最近の進歩は、SIで交換された中間的特徴を利用して機密入力データを復元できることを明らかにしている。
既存のDRAは一般的に浅いモデルにのみ有効であり、セマンティックな事前を十分に活用できない。
本稿では,プログレッシブ・フィーチャー・オプティマイゼーション(PFO)を用いた新しいGANベースのDRAフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T10:00:39Z) - FoundIR: Unleashing Million-scale Training Data to Advance Foundation Models for Image Restoration [66.61201445650323]
既存の手法は現実のシナリオにおける一般化ボトルネックに悩まされる。
既存のトレーニングデータに対して,2つの大きなメリットがある,100万規模のデータセットをコントリビュートしています。
実世界のシナリオにおいて,より広範囲の復元作業に対処するために,ロバストなモデルFoundIRを提案する。
論文 参考訳(メタデータ) (2024-12-02T12:08:40Z) - A Closer Look at GAN Priors: Exploiting Intermediate Features for Enhanced Model Inversion Attacks [43.98557963966335]
Model Inversion (MI)攻撃は、出力情報を利用して、リリースされたモデルからプライバシーに敏感なトレーニングデータを再構築することを目的としている。
GAN(Generative Adversarial Network)の最近の進歩は、MI攻撃の性能向上に大きく貢献している。
本稿では,GAN構造を分解し,中間ブロック間の特徴を利用する中間特徴拡張生成モデル変換(IF-GMI)を提案する。
論文 参考訳(メタデータ) (2024-07-18T19:16:22Z) - Gradient Inversion of Federated Diffusion Models [4.1355611383748005]
拡散モデルは、非常に高解像度の画像データを生成する欠陥生成モデルになりつつある。
本稿では,勾配反転攻撃のプライバシーリスクについて検討する。
本稿では,未知データの最適化をコーディネートする三重最適化GIDM+を提案する。
論文 参考訳(メタデータ) (2024-05-30T18:00:03Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。