論文の概要: R-CONV++: Uncovering Privacy Vulnerabilities through Analytical Gradient Inversion Attacks
- arxiv url: http://arxiv.org/abs/2509.18871v1
- Date: Tue, 23 Sep 2025 10:10:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.810143
- Title: R-CONV++: Uncovering Privacy Vulnerabilities through Analytical Gradient Inversion Attacks
- Title(参考訳): R-CONV++:分析的グラディエントインバージョンアタックによるプライバシ脆弱性の発見
- Authors: Tamer Ahmed Eltaras, Qutaibah Malluhi, Alessandro Savino, Stefano Di Carlo, Adnan Qayyum,
- Abstract要約: フェデレーション学習は、大規模な分散データセットを活用するための、顕著なプライバシ保護技術として登場した。
最近の研究では、勾配反転攻撃によってプライベートトレーニングデータが露出可能であることが示されている。
本稿では,勾配反転攻撃の適用性を拡大する3つの高度なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 39.02452828188404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning has emerged as a prominent privacy-preserving technique for leveraging large-scale distributed datasets by sharing gradients instead of raw data. However, recent studies indicate that private training data can still be exposed through gradient inversion attacks. While earlier analytical methods have demonstrated success in reconstructing input data from fully connected layers, their effectiveness significantly diminishes when applied to convolutional layers, high-dimensional inputs, and scenarios involving multiple training examples. This paper extends our previous work \cite{eltaras2024r} and proposes three advanced algorithms to broaden the applicability of gradient inversion attacks. The first algorithm presents a novel data leakage method that efficiently exploits convolutional layer gradients, demonstrating that even with non-fully invertible activation functions, such as ReLU, training samples can be analytically reconstructed directly from gradients without the need to reconstruct intermediate layer outputs. Building on this foundation, the second algorithm extends this analytical approach to support high-dimensional input data, substantially enhancing its utility across complex real-world datasets. The third algorithm introduces an innovative analytical method for reconstructing mini-batches, addressing a critical gap in current research that predominantly focuses on reconstructing only a single training example. Unlike previous studies that focused mainly on the weight constraints of convolutional layers, our approach emphasizes the pivotal role of gradient constraints, revealing that successful attacks can be executed with fewer than 5\% of the constraints previously deemed necessary in certain layers.
- Abstract(参考訳): フェデレーション学習は、生データの代わりに勾配を共有することによって、大規模分散データセットを活用するための、顕著なプライバシ保護技術として登場した。
しかし、最近の研究では、勾配反転攻撃によってプライベートトレーニングデータが露出されることが示唆されている。
従来の分析手法では、完全に接続された層から入力データを再構成することに成功したが、畳み込み層、高次元入力、複数のトレーニング例を含むシナリオに適用した場合、その効果は著しく低下する。
本稿では,従来の研究であるcite{eltaras2024r}を拡張し,勾配反転攻撃の適用性を高めるための3つの高度なアルゴリズムを提案する。
第1のアルゴリズムでは、畳み込み層勾配を効率的に利用し、ReLUのような非完全可逆的活性化関数であっても、中間層出力を再構築することなく、勾配から直接サンプルを解析的に再構築できることを実証する。
この基礎の上に構築された第2のアルゴリズムは、この分析的アプローチを拡張して、高次元の入力データをサポートし、複雑な実世界のデータセットにわたってその有用性を著しく強化する。
第3のアルゴリズムは、ミニバッチを再構築するための革新的な分析手法を導入し、単一のトレーニング例のみを再構築することに集中する現在の研究における重要なギャップに対処する。
畳み込み層の重み制約に主に焦点をあてた従来の研究とは異なり、我々のアプローチは勾配制約の重要な役割を強調し、特定の層でこれまで必要とされていた制約の55%以下で攻撃を成功させることができることを示した。
関連論文リスト
- Gradient Inversion Transcript: Leveraging Robust Generative Priors to Reconstruct Training Data from Gradient Leakage [3.012404329139943]
Gradient Inversion Transcript (GIT) は、リークした勾配からトレーニングデータを再構成するための新しい生成手法である。
GITは、既存のメソッドを複数のデータセットで一貫して上回る。
論文 参考訳(メタデータ) (2025-05-26T14:17:00Z) - Under-Sampled High-Dimensional Data Recovery via Symbiotic Multi-Prior Tensor Reconstruction [10.666965599523754]
本研究は,データ固有の構造を利用するために,複数の先行情報を統合したテンソル再構成手法を提案する。
具体的には、再構成されたデータの低ランクな制約を強制するために学習可能な分解と、平滑化と復調のための事前訓練された畳み込みニューラルネットワークと、ブロックマッチングと3Dフィルタリング正規化を組み合わせる。
カラー画像、ハイパースペクトル画像、グレースケールビデオデータセットの実験は、極端な場合において、我々の手法の優位性を実証している。
論文 参考訳(メタデータ) (2025-04-08T12:55:18Z) - Re-Visible Dual-Domain Self-Supervised Deep Unfolding Network for MRI Reconstruction [48.30341580103962]
本稿では、これらの問題に対処するために、新しい再視覚的二重ドメイン自己教師型深層展開ネットワークを提案する。
エンド・ツー・エンドの再構築を実現するために,シャンブルとポック・プロキシ・ポイント・アルゴリズム(DUN-CP-PPA)に基づく深層展開ネットワークを設計する。
高速MRIおよびIXIデータセットを用いて行った実験により,本手法は再建性能において最先端の手法よりも有意に優れていることが示された。
論文 参考訳(メタデータ) (2025-01-07T12:29:32Z) - R-CONV: An Analytical Approach for Efficient Data Reconstruction via Convolutional Gradients [40.209183669098735]
本稿では,畳み込み層の勾配を効率的に利用するための高度なデータ漏洩手法を提案する。
我々の知る限りでは、これは勾配から直接畳み込み層の入力を再構築する最初の分析手法である。
論文 参考訳(メタデータ) (2024-06-06T16:28:04Z) - Minimizing the Accumulated Trajectory Error to Improve Dataset
Distillation [151.70234052015948]
本稿では,フラットな軌道を求める最適化アルゴリズムを提案する。
合成データに基づいてトレーニングされた重みは、平坦な軌道への正規化を伴う累積誤差摂動に対して頑健であることを示す。
本手法はFTD (Flat Trajectory Distillation) と呼ばれ, 勾配整合法の性能を最大4.7%向上させる。
論文 参考訳(メタデータ) (2022-11-20T15:49:11Z) - Implicit Bias in Leaky ReLU Networks Trained on High-Dimensional Data [63.34506218832164]
本研究では,ReLUを活性化した2層完全連結ニューラルネットワークにおける勾配流と勾配降下の暗黙的バイアスについて検討する。
勾配流には、均一なニューラルネットワークに対する暗黙のバイアスに関する最近の研究を活用し、リーク的に勾配流が2つ以上のランクを持つニューラルネットワークを生成することを示す。
勾配降下は, ランダムな分散が十分小さい場合, 勾配降下の1ステップでネットワークのランクが劇的に低下し, トレーニング中もランクが小さくなることを示す。
論文 参考訳(メタデータ) (2022-10-13T15:09:54Z) - Understanding Training-Data Leakage from Gradients in Neural Networks
for Image Classification [11.272188531829016]
多くのアプリケーションでは、IPやプライバシの懸念からトレーニングデータが漏洩することを防ぐために、トレーニングデータを保護する必要があります。
近年の研究では、アーキテクチャが分かっていれば、画像分類モデルの勾配からトレーニングデータを再構築できることが示されている。
我々は各層に対して反復的に最適化問題を解くものとして、データ再構成のトレーニング問題を定式化する。
私たちは、ディープネットワーク内のトレーニングデータの潜在的漏洩を、そのアーキテクチャに関連付けることができます。
論文 参考訳(メタデータ) (2021-11-19T12:14:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。