論文の概要: Empirical evaluation of the Frank-Wolfe methods for constructing white-box adversarial attacks
- arxiv url: http://arxiv.org/abs/2512.10936v1
- Date: Thu, 11 Dec 2025 18:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.559789
- Title: Empirical evaluation of the Frank-Wolfe methods for constructing white-box adversarial attacks
- Title(参考訳): ホワイトボックス対逆攻撃構築のためのフランク・ウルフ法の実証評価
- Authors: Kristina Korotkova, Aleksandr Katrutsa,
- Abstract要約: 本稿では, 数値最適化の観点から, 効率的かつ効果的な敵攻撃を構築することの問題点を考察する。
具体的には,先進的なプロジェクションフリー手法であるFrank-Wolfe法を用いて,与えられた入力データに対するホワイトボックス逆アタックを構築することを提案する。
- 参考スコア(独自算出の注目度): 47.17476314360021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The construction of adversarial attacks for neural networks appears to be a crucial challenge for their deployment in various services. To estimate the adversarial robustness of a neural network, a fast and efficient approach is needed to construct adversarial attacks. Since the formalization of adversarial attack construction involves solving a specific optimization problem, we consider the problem of constructing an efficient and effective adversarial attack from a numerical optimization perspective. Specifically, we suggest utilizing advanced projection-free methods, known as modified Frank-Wolfe methods, to construct white-box adversarial attacks on the given input data. We perform a theoretical and numerical evaluation of these methods and compare them with standard approaches based on projection operations or geometrical intuition. Numerical experiments are performed on the MNIST and CIFAR-10 datasets, utilizing a multiclass logistic regression model, the convolutional neural networks (CNNs), and the Vision Transformer (ViT).
- Abstract(参考訳): ニューラルネットワークに対する敵攻撃の構築は、さまざまなサービスに展開する上で重要な課題であるようだ。
ニューラルネットワークの対向ロバスト性を推定するためには、対向攻撃を構築するために高速で効率的なアプローチが必要である。
敵攻撃構築の形式化は、特定の最適化問題を解くことを伴うため、数値最適化の観点から、効率的かつ効果的な敵攻撃を構築することの課題を考える。
具体的には,先進的なプロジェクションフリー手法であるFrank-Wolfe法を用いて,与えられた入力データに対するホワイトボックス逆アタックを構築することを提案する。
本稿では,これらの手法の理論的,数値的な評価を行い,投影操作や幾何学的直観に基づく標準的な手法と比較する。
マルチクラスロジスティック回帰モデル,畳み込みニューラルネットワーク(CNN),ビジョントランスフォーマー(ViT)を用いて,MNISTとCIFAR-10データセット上で数値実験を行った。
関連論文リスト
- Universal and Efficient Detection of Adversarial Data through Nonuniform Impact on Network Layers [24.585379549997743]
ディープニューラルネットワーク(DNN)は、雑音の予算が限られている敵の入力設計に弱いことで知られている。
既存の検出手法は、最先端の攻撃技術に対して非効率であるか、あるいはリアルタイム処理において計算的に非効率であることを示す。
そこで本研究では,異なるDNN層に対する攻撃の影響の度合いを解析することにより,敵の事例を検出する,新しい汎用的で効率的な手法を提案する。
論文 参考訳(メタデータ) (2025-06-25T20:30:28Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Boosting Adversarial Transferability via Fusing Logits of Top-1
Decomposed Feature [36.78292952798531]
本稿では,Singular Value Decomposition(SVD)に基づく特徴レベル攻撃法を提案する。
提案手法は,中間層特徴量より大きい特異値に付随する固有ベクトルがより優れた一般化と注意特性を示すという発見に着想を得たものである。
論文 参考訳(メタデータ) (2023-05-02T12:27:44Z) - A Multi-objective Memetic Algorithm for Auto Adversarial Attack
Optimization Design [1.9100854225243937]
良く設計された敵防衛戦略は、敵の例に対するディープラーニングモデルの堅牢性を改善することができる。
防御モデルを考えると、計算負担が少なく、ロバストな精度の低い効率的な敵攻撃を更に活用する必要がある。
本稿では,防衛モデルに対する準最適攻撃の自動探索を実現する自動対向攻撃最適化設計のための多目的メメティックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-15T03:03:05Z) - Robust Binary Models by Pruning Randomly-initialized Networks [57.03100916030444]
ランダムな二元ネットワークから敵攻撃に対して頑健なモデルを得る方法を提案する。
ランダムな二元ネットワークを切断することにより、ロバストモデルの構造を学習する。
本手法は, 敵攻撃の有無で, 強力な抽選券仮説を立証する。
論文 参考訳(メタデータ) (2022-02-03T00:05:08Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Multi-objective Search of Robust Neural Architectures against Multiple
Types of Adversarial Attacks [18.681859032630374]
深層学習モデルは、人間には受け入れられない敵の例に弱い。
機械学習モデルがどのタイプの攻撃に苦しむかを事前に予測することは事実上不可能である。
本稿では,多目的進化アルゴリズムを用いた5種類の既知の敵攻撃に対して頑健な深層ニューラルネットワークの探索を提案する。
論文 参考訳(メタデータ) (2021-01-16T19:38:16Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。