論文の概要: Defense-friendly Images in Adversarial Attacks: Dataset and Metrics for
Perturbation Difficulty
- arxiv url: http://arxiv.org/abs/2011.02675v2
- Date: Sat, 7 Nov 2020 02:57:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 11:29:48.272427
- Title: Defense-friendly Images in Adversarial Attacks: Dataset and Metrics for
Perturbation Difficulty
- Title(参考訳): 敵対的攻撃における防御に優しい画像:データセットと摂動障害の指標
- Authors: Camilo Pestana, Wei Liu, David Glance, Ajmal Mian
- Abstract要約: データセットバイアスは、敵機械学習、特に防衛評価における問題である。
本稿では,攻撃に対する耐性と,敵攻撃時のランダム画像よりも良好な回復性を有する頑健な画像群を初めて報告する。
本稿では,データセット内のロバストな画像の割合を決定するための3つの指標を提案し,データセットのバイアスを決定するためのスコアを提供する。
- 参考スコア(独自算出の注目度): 28.79528737626505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset bias is a problem in adversarial machine learning, especially in the
evaluation of defenses. An adversarial attack or defense algorithm may show
better results on the reported dataset than can be replicated on other
datasets. Even when two algorithms are compared, their relative performance can
vary depending on the dataset. Deep learning offers state-of-the-art solutions
for image recognition, but deep models are vulnerable even to small
perturbations. Research in this area focuses primarily on adversarial attacks
and defense algorithms. In this paper, we report for the first time, a class of
robust images that are both resilient to attacks and that recover better than
random images under adversarial attacks using simple defense techniques. Thus,
a test dataset with a high proportion of robust images gives a misleading
impression about the performance of an adversarial attack or defense. We
propose three metrics to determine the proportion of robust images in a dataset
and provide scoring to determine the dataset bias. We also provide an
ImageNet-R dataset of 15000+ robust images to facilitate further research on
this intriguing phenomenon of image strength under attack. Our dataset,
combined with the proposed metrics, is valuable for unbiased benchmarking of
adversarial attack and defense algorithms.
- Abstract(参考訳): データセットバイアスは、特に防衛評価において、敵機械学習における問題である。
敵攻撃または防御アルゴリズムは、報告されたデータセットで他のデータセットで複製されるよりも、より良い結果を示すことができる。
2つのアルゴリズムを比較しても、相対的なパフォーマンスはデータセットによって異なります。
ディープラーニングは、画像認識のための最先端のソリューションを提供するが、深層モデルは、小さな摂動に対しても脆弱である。
この分野での研究は主に敵攻撃と防衛アルゴリズムに焦点を当てている。
本稿では,攻撃に対して弾力性のあるロバストな画像のクラスであり,単純な防御手法を用いて,攻撃時のランダム画像よりも回復性が高いことを初めて報告する。
したがって、ロバストな画像の割合の高いテストデータセットは、敵の攻撃や防御のパフォーマンスについて誤解を招く印象を与える。
データセット内のロバストな画像の割合を決定するための3つの指標を提案し、データセットのバイアスを決定するためのスコアを提供する。
また、15000以上のロバストな画像からなるImageNet-Rデータセットも提供し、攻撃時の画像強度の興味深い現象のさらなる研究を促進する。
提案する指標と組み合わせたデータセットは,敵の攻撃アルゴリズムや防御アルゴリズムの偏りのないベンチマークに有用である。
関連論文リスト
- A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Adversarial Attacks Neutralization via Data Set Randomization [3.655021726150369]
ディープラーニングモデルに対する敵対的な攻撃は、信頼性とセキュリティに深刻な脅威をもたらす。
本稿では,超空間射影に根ざした新しい防御機構を提案する。
提案手法は,敵対的攻撃に対するディープラーニングモデルの堅牢性を高めていることを示す。
論文 参考訳(メタデータ) (2023-06-21T10:17:55Z) - SAIF: Sparse Adversarial and Imperceptible Attack Framework [7.025774823899217]
Sparse Adversarial and Interpretable Attack Framework (SAIF) と呼ばれる新しい攻撃手法を提案する。
具体的には、少数の画素で低次摂動を含む知覚不能な攻撃を設計し、これらのスパース攻撃を利用して分類器の脆弱性を明らかにする。
SAIFは、非常に受け入れ難い、解釈可能な敵の例を計算し、ImageNetデータセット上で最先端のスパース攻撃手法より優れている。
論文 参考訳(メタデータ) (2022-12-14T20:28:50Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Meta Adversarial Perturbations [66.43754467275967]
メタ逆境摂動(MAP)の存在を示す。
MAPは1段階の上昇勾配更新によって更新された後、自然画像を高い確率で誤分類する。
これらの摂動は画像に依存しないだけでなく、モデルに依存しないものであり、単一の摂動は見えないデータポイントと異なるニューラルネットワークアーキテクチャにまたがってうまく一般化される。
論文 参考訳(メタデータ) (2021-11-19T16:01:45Z) - Fight Detection from Still Images in the Wild [13.95888515102339]
そこで本稿では,戦闘行動の現実的なイメージを含む,ソーシャルメディア・ファイト・イメージ(SMFI)という新しいデータセットを提案する。
テストは、他のコンピュータビジョン問題と同様に、戦闘認識問題に対するデータセットバイアスが存在することを示している。
論文 参考訳(メタデータ) (2021-11-16T11:16:11Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - Attack Agnostic Adversarial Defense via Visual Imperceptible Bound [70.72413095698961]
本研究の目的は、目視攻撃と目視攻撃の両方に対して一定の範囲内で堅牢な防衛モデルを設計することである。
提案するディフェンスモデルは,MNIST,CIFAR-10,Tiny ImageNetデータベース上で評価される。
提案アルゴリズムは攻撃非依存であり,攻撃アルゴリズムの知識を必要としない。
論文 参考訳(メタデータ) (2020-10-25T23:14:26Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Determining Sequence of Image Processing Technique (IPT) to Detect
Adversarial Attacks [4.431353523758957]
本稿では,悪意のある入力を検出するための画像処理手法(IPTS)を自動決定する進化的手法を提案する。
遺伝的アルゴリズム(GA)に基づく検出フレームワークを開発し、最適なIPTSを見つける。
テスト時に動的に選択されるIPTSのセットは、敵攻撃のフィルタとして機能する。
論文 参考訳(メタデータ) (2020-07-01T08:59:14Z) - Applying Tensor Decomposition to image for Robustness against
Adversarial Attack [3.347059384111439]
小さな摂動を加えることで、ディープラーニングモデルを簡単に騙すことができる。
本稿では,逆例に対してモデルを守るためにテンソル分解を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-02-28T18:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。