論文の概要: Evaluating Adversarial Attacks on ImageNet: A Reality Check on
Misclassification Classes
- arxiv url: http://arxiv.org/abs/2111.11056v1
- Date: Mon, 22 Nov 2021 08:54:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 14:52:49.313861
- Title: Evaluating Adversarial Attacks on ImageNet: A Reality Check on
Misclassification Classes
- Title(参考訳): ImageNetにおける敵対的攻撃の評価:誤分類授業の現実的チェック
- Authors: Utku Ozbulak, Maura Pintor, Arnout Van Messem, Wesley De Neve
- Abstract要約: 逆例がImageNetで誤って分類されるクラスの性質について検討する。
モデルからモデルへの変換性を達成した敵対的な例の71%は、トップ5クラスのうちの1つに誤って分類されている。
また、未ターゲットの誤分類の大規模なサブセットは、実際には、意味論的に類似したクラスへの誤分類である。
- 参考スコア(独自算出の注目度): 3.0128052969792605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although ImageNet was initially proposed as a dataset for performance
benchmarking in the domain of computer vision, it also enabled a variety of
other research efforts. Adversarial machine learning is one such research
effort, employing deceptive inputs to fool models in making wrong predictions.
To evaluate attacks and defenses in the field of adversarial machine learning,
ImageNet remains one of the most frequently used datasets. However, a topic
that is yet to be investigated is the nature of the classes into which
adversarial examples are misclassified. In this paper, we perform a detailed
analysis of these misclassification classes, leveraging the ImageNet class
hierarchy and measuring the relative positions of the aforementioned type of
classes in the unperturbed origins of the adversarial examples. We find that
$71\%$ of the adversarial examples that achieve model-to-model adversarial
transferability are misclassified into one of the top-5 classes predicted for
the underlying source images. We also find that a large subset of untargeted
misclassifications are, in fact, misclassifications into semantically similar
classes. Based on these findings, we discuss the need to take into account the
ImageNet class hierarchy when evaluating untargeted adversarial successes.
Furthermore, we advocate for future research efforts to incorporate categorical
information.
- Abstract(参考訳): imagenetは当初、コンピュータビジョンの領域におけるパフォーマンスベンチマークのためのデータセットとして提案されたが、他の様々な研究成果も可能になった。
敵対的機械学習はそのような研究の取り組みのひとつであり、誤った予測を行う際に、愚かなモデルに偽りの入力を用いる。
敵対的機械学習の分野における攻撃と防御を評価するため、imagenetは最も頻繁に使用されるデータセットの1つだ。
しかし、まだ研究されていないトピックは、敵対的な例が誤って分類されるクラスの性質である。
本稿では、これらの誤分類クラスを詳細に分析し、ImageNetのクラス階層を活用し、上記タイプの相対的な位置を敵の例の未成熟な起源で測定する。
モデルからモデルへの転送可能性を達成する敵の例の711\%$が、基礎となるソースイメージで予測されるトップ5クラスに誤分類されていることが分かりました。
また、未ターゲットの誤分類の大規模なサブセットは、実際には、意味論的に類似したクラスへの誤分類である。
これらの結果に基づき、未目標の対人的成功を評価する際に、ImageNetクラス階層を考慮する必要性について考察する。
さらに,分類情報の導入に向けた今後の研究課題を提唱する。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Counterfactual Image Generation for adversarially robust and
interpretable Classifiers [1.3859669037499769]
本稿では,GAN(Generative Adrial Networks)を基盤として,画像から画像への変換を利用した統合フレームワークを提案する。
これは、分類器と識別器を1つのモデルに組み合わせて、実際の画像をそれぞれのクラスに属性付け、生成されたイメージを「フェイク」として生成することで達成される。
モデルが敵攻撃に対するロバスト性の向上を示すことを示すとともに,判別器の「フェイクネス」値が予測の不確かさの指標となることを示す。
論文 参考訳(メタデータ) (2023-10-01T18:50:29Z) - Adversarial Attacks on Image Classification Models: FGSM and Patch
Attacks and their Impact [0.0]
本章では、畳み込みニューラルネットワーク(CNN)上に構築された画像分類モデルに対する逆攻撃の概念を紹介する。
CNNは画像分類タスクで使用される非常に人気のあるディープラーニングモデルである。
2つの非常によく知られた敵対的攻撃について論じ、画像分類器の性能への影響について分析した。
論文 参考訳(メタデータ) (2023-07-05T06:40:08Z) - Fine-Grained ImageNet Classification in the Wild [0.0]
ロバストネステストは、典型的なモデル評価段階で気づかないいくつかの脆弱性やバイアスを明らかにすることができる。
本研究では,階層的知識の助けを借りて,密接に関連するカテゴリのきめ細かい分類を行う。
論文 参考訳(メタデータ) (2023-03-04T12:25:07Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Rethinking Natural Adversarial Examples for Classification Models [43.87819913022369]
ImageNet-Aは、自然対比例の有名なデータセットです。
オブジェクト検出技術を用いたImageNet-A例の背景影響を低減して仮説を検証した。
実験により,様々な分類モデルを用いた物体検出モデルは,その分類モデルよりも精度が高かった。
論文 参考訳(メタデータ) (2021-02-23T14:46:48Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。