論文の概要: A Survey on Gradient Inversion: Attacks, Defenses and Future Directions
- arxiv url: http://arxiv.org/abs/2206.07284v1
- Date: Wed, 15 Jun 2022 03:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 14:33:24.962381
- Title: A Survey on Gradient Inversion: Attacks, Defenses and Future Directions
- Title(参考訳): グラディエント・インバージョンに関する調査 : 攻撃・防衛・今後の方向性
- Authors: Rui Zhang, Song Guo, Junxiao Wang, Xin Xie, Dacheng Tao
- Abstract要約: われわれはGradInvに関する包括的調査を行い、最先端の研究を要約し、異なる領域の地平を広げることを目的としている。
まず,既存攻撃を反復攻撃と再帰攻撃という2つのパラダイムに特徴付けることによって,GradInv攻撃の分類法を提案する。
第2に、GradInv攻撃に対する新たな防衛戦略を要約する。これらのアプローチは、データの隠蔽、モデル改善、勾配保護に関する3つの視点に焦点を当てている。
- 参考スコア(独自算出の注目度): 81.46745643749513
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that the training samples can be recovered from
gradients, which are called Gradient Inversion (GradInv) attacks. However,
there remains a lack of extensive surveys covering recent advances and thorough
analysis of this issue. In this paper, we present a comprehensive survey on
GradInv, aiming to summarize the cutting-edge research and broaden the horizons
for different domains. Firstly, we propose a taxonomy of GradInv attacks by
characterizing existing attacks into two paradigms: iteration- and
recursion-based attacks. In particular, we dig out some critical ingredients
from the iteration-based attacks, including data initialization, model training
and gradient matching. Second, we summarize emerging defense strategies against
GradInv attacks. We find these approaches focus on three perspectives covering
data obscuration, model improvement and gradient protection. Finally, we
discuss some promising directions and open problems for further research.
- Abstract(参考訳): 近年の研究では、トレーニングサンプルが勾配反転(gradle inversion,gradinv)攻撃と呼ばれる勾配から回復できることが示されている。
しかし、この問題の最近の進展や徹底的な分析に関する広範な調査が不足している。
本稿では,GradInvに関する包括的調査を行い,最先端の研究を要約し,さまざまな領域の地平を広げることを目的とする。
まず,既存の攻撃を反復攻撃と再帰攻撃の2つのパラダイムに特徴付けることで,gradinv攻撃の分類を提案する。
特に、データ初期化、モデルトレーニング、勾配マッチングなど、イテレーションベースの攻撃から重要な要素を掘り出す。
第2に、gradinv攻撃に対する新たな防衛戦略をまとめる。
これらのアプローチは、データの隠蔽、モデル改善、勾配保護の3つの観点に重点を置いている。
最後に,今後の研究に向けた有望な方向性と課題について考察する。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Dealing Doubt: Unveiling Threat Models in Gradient Inversion Attacks under Federated Learning, A Survey and Taxonomy [10.962424750173332]
フェデレートラーニング(FL)は、機械学習トレーニングを分散したプライバシ保護のための主要なパラダイムとして登場した。
近年のGIA(グラデーション・インバージョン・アタック)の研究では、FLの勾配更新がプライベートトレーニングサンプルに関する情報を漏洩させることが示されている。
本稿では、FL脅威モデル、特に悪意のあるサーバやクライアントに焦点を当てたGIAに関する調査と新たな分類について述べる。
論文 参考訳(メタデータ) (2024-05-16T18:15:38Z) - A Survey on Vulnerability of Federated Learning: A Learning Algorithm
Perspective [8.941193384980147]
FLシステムの学習プロセスを対象とした脅威モデルに焦点を当てる。
防衛戦略は、特定のメトリクスを使用して悪意のあるクライアントを除外することから進化してきた。
最近の取り組みは、ローカルモデルの最小限の重みを、防御措置をバイパスするために微妙に変更している。
論文 参考訳(メタデータ) (2023-11-27T18:32:08Z) - A Theoretical Insight into Attack and Defense of Gradient Leakage in
Transformer [11.770915202449517]
グラディエント(DLG)攻撃によるDeep Leakageは、交換勾配を検査してセンシティブなトレーニングデータを抽出する方法として、広く普及している。
本研究は, 変圧器モデルに特に適用した場合の勾配漏洩法を包括的に解析する。
論文 参考訳(メタデータ) (2023-11-22T09:58:01Z) - Adversarial Attacks and Defenses on 3D Point Cloud Classification: A
Survey [28.21038594191455]
優れた成果にもかかわらず、ディープラーニングアルゴリズムは敵の攻撃に対して脆弱である。
本稿では,まず,敵攻撃の原理と特徴を紹介し,敵の事例生成手法を要約し,分析する。
また、データ重視およびモデル重視の方法で組織された防衛戦略の概要も提供する。
論文 参考訳(メタデータ) (2023-07-01T11:46:36Z) - Are Defenses for Graph Neural Networks Robust? [72.1389952286628]
グラフニューラルネットワーク(GNN)のディフェンスのほとんどは、未定義のベースラインに比べて、限界的な改善がまったく、あるいはのみであることを示す。
我々は、カスタムアダプティブアタックをゴールドスタンダードとして使用することを提唱し、そのようなアタックをうまく設計して学んだ教訓を概説する。
私たちの多彩な摂動グラフのコレクションは、モデルの堅牢性について一目でわかる(ブラックボックス)単体テストを形成します。
論文 参考訳(メタデータ) (2023-01-31T15:11:48Z) - Adversarial Attacks on Black Box Video Classifiers: Leveraging the Power
of Geometric Transformations [49.06194223213629]
ビデオ分類モデルに対するブラックボックスの敵攻撃は、ほとんど調査されていない。
本研究では,探索空間の時間構造をパラメータ化することにより,そのような効果的な勾配を探索できることを実証する。
我々のアルゴリズムは本質的に、驚くほど少ないクエリで摂動を成功させる。
論文 参考訳(メタデータ) (2021-10-05T05:05:59Z) - Byzantine-robust Federated Learning through Collaborative Malicious
Gradient Filtering [32.904425716385575]
勾配ベクトルの要素ワイドサインは, モデル中毒攻撃の検出に有用であることを示す。
そこで本稿では,Byzantine-robust フェデレーション学習を有害な勾配フィルタリングによって実現するための textitSignGuard という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-13T11:15:15Z) - Imbalanced Gradients: A Subtle Cause of Overestimated Adversarial
Robustness [75.30116479840619]
本稿では,不均衡勾配という,過度に推定された敵の強靭性も引き起こす,より微妙な状況を特定する。
不均衡勾配の現象は、マージン損失の一項の勾配が支配的となり、攻撃を準最適方向に押し上げるときに起こる。
本稿では、マージン分解攻撃(MD)について、個々の項にマージン損失を分解し、これらの項の攻撃可能性について個別に検討する。
論文 参考訳(メタデータ) (2020-06-24T13:41:37Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。