論文の概要: A New Type of Adversarial Examples
- arxiv url: http://arxiv.org/abs/2510.19347v1
- Date: Wed, 22 Oct 2025 08:14:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.342629
- Title: A New Type of Adversarial Examples
- Title(参考訳): 新しいタイプの敵対的事例
- Authors: Xingyang Nie, Guojie Xiao, Su Pan, Biao Wang, Huilin Ge, Tao Fang,
- Abstract要約: 逆例は、データセットの例に微妙だが意図的に最悪の修正を適用することで作成される。
このような逆例を生成するための新しいアルゴリズムセットを提案する。
この結果から, 逆例は, データセットの近傍にのみ分布しないことがわかった。
- 参考スコア(独自算出の注目度): 16.101504821305998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most machine learning models are vulnerable to adversarial examples, which poses security concerns on these models. Adversarial examples are crafted by applying subtle but intentionally worst-case modifications to examples from the dataset, leading the model to output a different answer from the original example. In this paper, adversarial examples are formed in an exactly opposite manner, which are significantly different from the original examples but result in the same answer. We propose a novel set of algorithms to produce such adversarial examples, including the negative iterative fast gradient sign method (NI-FGSM) and the negative iterative fast gradient method (NI-FGM), along with their momentum variants: the negative momentum iterative fast gradient sign method (NMI-FGSM) and the negative momentum iterative fast gradient method (NMI-FGM). Adversarial examples constructed by these methods could be used to perform an attack on machine learning systems in certain occasions. Moreover, our results show that the adversarial examples are not merely distributed in the neighbourhood of the examples from the dataset; instead, they are distributed extensively in the sample space.
- Abstract(参考訳): ほとんどの機械学習モデルは、敵の例に弱いため、これらのモデルにセキュリティ上の懸念が生じる。
逆の例は、データセットの例に微妙だが故意に最悪の修正を適用することで作成され、モデルが元の例とは異なる回答を出力する。
本稿では, 逆例を正反対に生成し, 元の例とは大きく異なるが, 結果として同じ解が得られることを示す。
負の運動量反復型高速勾配法 (NI-FGSM) と負の運動量反復型高速勾配法 (NI-FGM) と, 負の運動量反復型高速勾配法 (NMI-FGSM) と負の運動量反復型高速勾配法 (NMI-FGM) とを含む, 新たな逆例を生成するアルゴリズムを提案する。
これらの手法によって構築された敵の例は、特定の場合において機械学習システムに対する攻撃を実行するために使用できる。
さらに,本研究の結果から, 逆例はデータセットの近傍にのみ分布するのではなく, サンプル空間に広く分布していることが示唆された。
関連論文リスト
- Enhancing Sample Selection Against Label Noise by Cutting Mislabeled Easy Examples [74.60723854735237]
トレーニングプロセスの初期段階において,モデルによって正しく予測された誤ラベル例は,特にモデル性能に有害であることを示す。
モデルの後続のトレーニング状態を利用して,早期に同定された自信あるサブセットを再選択するアーリーカットを提案する。
論文 参考訳(メタデータ) (2025-02-12T09:12:45Z) - Reversible Jump Attack to Textual Classifiers with Modification Reduction [8.247761405798874]
Reversible Jump Attack (RJA) とMetropolis-Hasting Modification Reduction (MMR) が提案されている。
RJA-MMRは、攻撃性能、非受容性、流布性、文法の正しさにおいて、現在の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T04:54:31Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Adversarial Examples Detection with Enhanced Image Difference Features
based on Local Histogram Equalization [20.132066800052712]
本稿では,高頻度情報強調戦略に基づく逆例検出フレームワークを提案する。
このフレームワークは、敵の例と通常の例との特徴的差異を効果的に抽出し、増幅することができる。
論文 参考訳(メタデータ) (2023-05-08T03:14:01Z) - Adversarial Examples on Segmentation Models Can be Easy to Transfer [21.838878497660353]
分類モデルにおける逆例の移動性は、ますます関心を集めている。
分類とセグメンテーションモデルにおける逆例の過剰適合現象について検討する。
この制限を克服するために,動的スケーリングと呼ばれるシンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-11-22T17:26:21Z) - Improving Transformation-based Defenses against Adversarial Examples
with First-order Perturbations [16.346349209014182]
研究によると、ニューラルネットワークは敵の攻撃を受けやすい。
これにより、ニューラルネットワークベースのインテリジェントシステムに対する潜在的な脅威が露呈する。
本稿では, 対向性強靭性を改善するために, 対向性摂動に対処する手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T06:27:24Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Robust and On-the-fly Dataset Denoising for Image Classification [72.10311040730815]
On-the-fly Data Denoising (ODD)は、間違ったラベルの例に対して堅牢だが、通常のトレーニングと比べて計算オーバーヘッドはほぼゼロである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。
論文 参考訳(メタデータ) (2020-03-24T03:59:26Z) - Fundamental Tradeoffs between Invariance and Sensitivity to Adversarial
Perturbations [65.05561023880351]
敵の例は誤分類を引き起こすために作られた悪意のある入力である。
本稿では, 相補的障害モード, 不変性に基づく逆数例について検討する。
感度に基づく攻撃に対する防御は、不変性に基づく攻撃に対するモデルの精度を積極的に損なうことを示す。
論文 参考訳(メタデータ) (2020-02-11T18:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。