論文の概要: Decentralized Adversarial Training over Graphs
- arxiv url: http://arxiv.org/abs/2303.13326v1
- Date: Thu, 23 Mar 2023 15:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 13:48:40.815857
- Title: Decentralized Adversarial Training over Graphs
- Title(参考訳): グラフによる分散型対人訓練
- Authors: Ying Cao, Elsa Rizk, Stefan Vlaski, Ali H. Sayed
- Abstract要約: 機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
- 参考スコア(独自算出の注目度): 55.28669771020857
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The vulnerability of machine learning models to adversarial attacks has been
attracting considerable attention in recent years. Most existing studies focus
on the behavior of stand-alone single-agent learners. In comparison, this work
studies adversarial training over graphs, where individual agents are subjected
to perturbations of varied strength levels across space. It is expected that
interactions by linked agents, and the heterogeneity of the attack models that
are possible over the graph, can help enhance robustness in view of the
coordination power of the group. Using a min-max formulation of diffusion
learning, we develop a decentralized adversarial training framework for
multi-agent systems. We analyze the convergence properties of the proposed
scheme for both convex and non-convex environments, and illustrate the enhanced
robustness to adversarial attacks.
- Abstract(参考訳): 機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
現存するほとんどの研究は、単独学習者の行動に焦点を当てている。
比較して、この研究は、個々のエージェントが空間にまたがる様々な強度レベルの摂動を受けるグラフ上の敵対的トレーニングを研究する。
リンクエージェントによる相互作用や、グラフ上で可能な攻撃モデルの異質性は、グループの協調力の観点から堅牢性を高めるのに役立つと期待されている。
拡散学習のmin-max定式化を用いて,マルチエージェントシステムのための分散逆学習フレームワークを開発する。
本研究では,凸環境および非凸環境における提案手法の収束特性を解析し,敵攻撃に対する強靭性を示す。
関連論文リスト
- Fake or Compromised? Making Sense of Malicious Clients in Federated
Learning [15.91062695812289]
本報告では, 各種毒素攻撃および防御凝集規則(AGR)の包括的分析について述べる。
既存の敵モデルを接続するために、敵のスペクトルの中間に位置するハイブリッド敵モデルを提示する。
我々は、FLシステムを設計する際に考慮すべきさまざまな脅威について、実践者や研究者に明確に理解することを目的としている。
論文 参考訳(メタデータ) (2024-03-10T21:37:21Z) - HC-Ref: Hierarchical Constrained Refinement for Robust Adversarial
Training of GNNs [7.635985143883581]
コンピュータビジョンにおける敵の攻撃に対する最も効果的な防御機構の1つとされる敵の訓練は、GNNの堅牢性を高めるという大きな約束を持っている。
本稿では,GNNと下流分類器の対摂動性を高める階層的制約改善フレームワーク(HC-Ref)を提案する。
論文 参考訳(メタデータ) (2023-12-08T07:32:56Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Attacks on Robust Distributed Learning Schemes via Sensitivity Curve
Maximization [37.464005524259356]
曲線の感度(SCM)に基づく新たな攻撃法を提案する。
我々は, 従来の頑健なアグリゲーションスキームを, 小さいが効果的な摂動を注入することで破壊できることを実証した。
論文 参考訳(メタデータ) (2023-04-27T08:41:57Z) - Multi-Agent Adversarial Training Using Diffusion Learning [55.28669771020857]
拡散学習を用いたマルチエージェントシステムのための汎用的な逆学習フレームワークを提案する。
凸最適化問題に対する提案手法の収束特性を解析し、敵攻撃に対する強靭性を示す。
論文 参考訳(メタデータ) (2023-03-03T14:05:59Z) - Self-Ensemble Adversarial Training for Improved Robustness [14.244311026737666]
敵の訓練は、あらゆる種類の防衛方法において、様々な敵の攻撃に対する最強の戦略である。
最近の研究は主に新しい損失関数や正規化器の開発に重点を置いており、重み空間の特異な最適点を見つけようとしている。
我々は,歴史モデルの重みを平均化し,頑健な分類器を生成するための,単純だが強力なemphSelf-Ensemble Adversarial Training (SEAT)法を考案した。
論文 参考訳(メタデータ) (2022-03-18T01:12:18Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。