論文の概要: Rethinking Natural Adversarial Examples for Classification Models
- arxiv url: http://arxiv.org/abs/2102.11731v1
- Date: Tue, 23 Feb 2021 14:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 13:59:01.436469
- Title: Rethinking Natural Adversarial Examples for Classification Models
- Title(参考訳): 分類モデルにおける自然逆例の再考
- Authors: Xiao Li, Jianmin Li, Ting Dai, Jie Shi, Jun Zhu, Xiaolin Hu
- Abstract要約: ImageNet-Aは、自然対比例の有名なデータセットです。
オブジェクト検出技術を用いたImageNet-A例の背景影響を低減して仮説を検証した。
実験により,様々な分類モデルを用いた物体検出モデルは,その分類モデルよりも精度が高かった。
- 参考スコア(独自算出の注目度): 43.87819913022369
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, it was found that many real-world examples without intentional
modifications can fool machine learning models, and such examples are called
"natural adversarial examples". ImageNet-A is a famous dataset of natural
adversarial examples. By analyzing this dataset, we hypothesized that large,
cluttered and/or unusual background is an important reason why the images in
this dataset are difficult to be classified. We validated the hypothesis by
reducing the background influence in ImageNet-A examples with object detection
techniques. Experiments showed that the object detection models with various
classification models as backbones obtained much higher accuracy than their
corresponding classification models. A detection model based on the
classification model EfficientNet-B7 achieved a top-1 accuracy of 53.95%,
surpassing previous state-of-the-art classification models trained on ImageNet,
suggesting that accurate localization information can significantly boost the
performance of classification models on ImageNet-A. We then manually cropped
the objects in images from ImageNet-A and created a new dataset, named
ImageNet-A-Plus. A human test on the new dataset showed that the deep
learning-based classifiers still performed quite poorly compared with humans.
Therefore, the new dataset can be used to study the robustness of
classification models to the internal variance of objects without considering
the background disturbance.
- Abstract(参考訳): 近年,意図的な修正を伴わない実世界の例の多くは機械学習モデルを騙しうることが判明し,このような例を「自然対逆例」と呼ぶ。
ImageNet-Aは、自然対比例の有名なデータセットです。
このデータセットを解析することにより、大きな、散らばった、あるいは異常な背景が、このデータセットのイメージの分類が難しい重要な理由である、という仮説を立てた。
オブジェクト検出技術を用いたImageNet-A例の背景影響を低減して仮説を検証した。
実験により,様々な分類モデルを用いた物体検出モデルは,その分類モデルよりも精度が高かった。
分類モデル efficientnet-b7に基づく検出モデルは、imagenetでトレーニングされた以前の最先端の分類モデルを上回る53.95%のtop-1精度を達成した。
次に、ImageNet-Aからイメージ内のオブジェクトを手動でトリミングし、ImageNet-A-Plusという新しいデータセットを作成しました。
新しいデータセットの人間のテストでは、深層学習に基づく分類器は依然として人間と比較してかなり貧弱であったことが示された。
したがって、新しいデータセットは、背景外乱を考慮せずに、オブジェクトの内部分散に対する分類モデルのロバスト性を調べるために使用できる。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - ImageNet-E: Benchmarking Neural Network Robustness via Attribute Editing [45.14977000707886]
ImageNetにおける高い精度は、通常、異なる汚職に対してより堅牢性をもたらす。
我々は、背景、大きさ、位置、方向の制御によるオブジェクト編集のためのツールキットを作成する。
我々は、畳み込みニューラルネットワークと視覚変換器の両方を含む現在のディープラーニングモデルの性能を評価する。
論文 参考訳(メタデータ) (2023-03-30T02:02:32Z) - Diverse, Difficult, and Odd Instances (D2O): A New Test Set for Object
Classification [47.64219291655723]
既存のテストセットと十分に異なるD2Oと呼ばれる新しいテストセットを導入します。
私たちのデータセットには、36のカテゴリにまたがる8,060のイメージが含まれており、そのうち29がImageNetに表示されています。
私たちのデータセットで最高のTop-1精度は約60%で、ImageNetで91%のTop-1精度よりもはるかに低いです。
論文 参考訳(メタデータ) (2023-01-29T19:58:32Z) - Natural Adversarial Objects [10.940015831720144]
我々は,オブジェクト検出モデルの堅牢性を評価するために,新しいデータセットであるNatural Adversarial Objects (NAO)を導入する。
NAOには7,934のイメージと9,943のオブジェクトが含まれており、実際のシナリオを反映している。
論文 参考訳(メタデータ) (2021-11-07T23:42:55Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。