論文の概要: Data Reconstruction Attacks and Defenses: A Systematic Evaluation
- arxiv url: http://arxiv.org/abs/2402.09478v1
- Date: Tue, 13 Feb 2024 05:06:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 18:28:18.278490
- Title: Data Reconstruction Attacks and Defenses: A Systematic Evaluation
- Title(参考訳): データレコンストラクション攻撃と防御:体系的評価
- Authors: Sheng Liu, Zihan Wang, Qi Lei
- Abstract要約: 我々は,連合学習の設定において,強力な再構築攻撃を提案する。
このアタックは中間機能を再構築し、以前のほとんどのメソッドとうまく統合し、性能を向上する。
以上より, 切断勾配, ドロップアウト, 付加雑音, 局所凝集などの防御機構が, 最先端攻撃に対する防御戦略として有効であることが示唆された。
- 参考スコア(独自算出の注目度): 30.931125884450733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstruction attacks and defenses are essential in understanding the data
leakage problem in machine learning. However, prior work has centered around
empirical observations of gradient inversion attacks, lacks theoretical
groundings, and was unable to disentangle the usefulness of defending methods
versus the computational limitation of attacking methods. In this work, we
propose a strong reconstruction attack in the setting of federated learning.
The attack reconstructs intermediate features and nicely integrates with and
outperforms most of the previous methods. On this stronger attack, we
thoroughly investigate both theoretically and empirically the effect of the
most common defense methods. Our findings suggest that among various defense
mechanisms, such as gradient clipping, dropout, additive noise, local
aggregation, etc., gradient pruning emerges as the most effective strategy to
defend against state-of-the-art attacks.
- Abstract(参考訳): レコンストラクション攻撃と防御は、機械学習のデータ漏洩問題を理解する上で不可欠である。
しかし、先行研究は、勾配反転攻撃の実証的な観察、理論的根拠の欠如、防御方法の有用性と攻撃方法の計算的制限を両立させることができなかった。
本研究では,連合学習の設定において,強固な再構築攻撃を提案する。
攻撃は中間的な機能を再構築し、以前のほとんどのメソッドとうまく統合し、上回っています。
より強力な攻撃では,最も一般的な防御方法の効果を理論的にも実証的にも徹底的に検討する。
以上より,グラデーション・クリッピング,ドロップアウト,付加ノイズ,局所凝集など様々な防御機構において,最先端の攻撃を防御するための最も効果的な戦略としてグラデーション・プルーニングが出現することが示唆された。
関連論文リスト
- Robust Adversarial Defense by Tensor Factorization [1.2954493726326113]
本研究では、入力データのテンソル化と低ランク分解とNNパラメータのテンソル化を統合し、敵防御を強化する。
提案手法は、最強の自爆攻撃を受けた場合でも、高い防御能力を示し、堅牢な精度を維持する。
論文 参考訳(メタデータ) (2023-09-03T04:51:44Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - The Space of Adversarial Strategies [6.295859509997257]
機械学習モデルにおける最悪のケース動作を誘発するインプットである逆例は、過去10年間に広く研究されてきた。
最悪の場合(すなわち最適な)敵を特徴づける体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-09-09T20:53:11Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Evaluating Gradient Inversion Attacks and Defenses in Federated Learning [43.993693910541275]
本稿では,既存の攻撃と,勾配反転攻撃に対する防御について検討する。
提案する3つの防御機構のプライバシー漏洩とデータユーティリティのトレードオフを示す。
我々の研究結果は、現在最先端の攻撃は、小さなデータユーティリティー損失で防御可能であることを示唆している。
論文 参考訳(メタデータ) (2021-11-30T19:34:16Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。