論文の概要: A Comprehensive Study on the Robustness of Image Classification and
Object Detection in Remote Sensing: Surveying and Benchmarking
- arxiv url: http://arxiv.org/abs/2306.12111v2
- Date: Fri, 15 Sep 2023 14:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 18:17:14.631622
- Title: A Comprehensive Study on the Robustness of Image Classification and
Object Detection in Remote Sensing: Surveying and Benchmarking
- Title(参考訳): リモートセンシングにおける画像分類と物体検出のロバスト性に関する総合的研究:サーベイとベンチマーク
- Authors: Shaohui Mei, Jiawei Lian, Xiaofei Wang, Yuru Su, Mingyang Ma, and
Lap-Pui Chau
- Abstract要約: ディープニューラルネットワーク(DNN)は、リモートセンシング(RS)画像の解釈に広く応用されている。
従来の研究では、DNNは様々な種類のノイズ、特に敵対的なノイズに弱いことが示されている。
本研究は,RS課題における自然的頑健性と対角的頑健性の両方を包括的に検討した初めての事例である。
- 参考スコア(独自算出の注目度): 17.012502610423006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have found widespread applications in
interpreting remote sensing (RS) imagery. However, it has been demonstrated in
previous works that DNNs are vulnerable to different types of noises,
particularly adversarial noises. Surprisingly, there has been a lack of
comprehensive studies on the robustness of RS tasks, prompting us to undertake
a thorough survey and benchmark on the robustness of image classification and
object detection in RS. To our best knowledge, this study represents the first
comprehensive examination of both natural robustness and adversarial robustness
in RS tasks. Specifically, we have curated and made publicly available datasets
that contain natural and adversarial noises. These datasets serve as valuable
resources for evaluating the robustness of DNNs-based models. To provide a
comprehensive assessment of model robustness, we conducted meticulous
experiments with numerous different classifiers and detectors, encompassing a
wide range of mainstream methods. Through rigorous evaluation, we have
uncovered insightful and intriguing findings, which shed light on the
relationship between adversarial noise crafting and model training, yielding a
deeper understanding of the susceptibility and limitations of various models,
and providing guidance for the development of more resilient and robust models
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、リモートセンシング(RS)画像の解釈に広く応用されている。
しかし、従来の研究では、DNNは様々な種類のノイズ、特に対向雑音に弱いことが示されている。
意外なことに、RSタスクの堅牢性に関する包括的な研究が欠如しており、画像分類とオブジェクト検出の堅牢性に関する徹底的な調査とベンチマークを行う必要がある。
本研究は,RSタスクにおける自然的頑健性と敵的頑健性の両方を包括的に検討した初めての事例である。
具体的には、自然と逆のノイズを含むデータセットをキュレートし、公開しました。
これらのデータセットは、DNNベースのモデルの堅牢性を評価するための貴重なリソースとなる。
モデルロバスト性を包括的に評価するために,様々な分類器と検出器を用いて細心の注意を払って実験を行った。
厳密な評価を通じて,実感と興味をそそる知見が明らかとなり,反面的なノイズ作りとモデルトレーニングの関係に光を当て,様々なモデルの感受性と限界をより深く理解し,よりレジリエントでロバストなモデルの開発のためのガイダンスを提供する。
関連論文リスト
- Robust Neural Information Retrieval: An Adversarial and Out-of-distribution Perspective [111.58315434849047]
ニューラルネットワーク検索モデル(IR)モデルの堅牢性は、大きな注目を集めている。
我々は、IRの堅牢性を多面的概念とみなし、敵攻撃、アウト・オブ・ディストリビューション(OOD)シナリオ、パフォーマンスのばらつきに対してその必要性を強調している。
我々は,既存の手法,データセット,評価指標について詳細な議論を行い,大規模言語モデルの時代における課題や今後の方向性に光を当てる。
論文 参考訳(メタデータ) (2024-07-09T16:07:01Z) - Towards Evaluating the Robustness of Visual State Space Models [63.14954591606638]
視覚状態空間モデル(VSSM)は視覚知覚タスクにおいて顕著な性能を示した。
しかし、自然と敵対的な摂動の下での頑丈さは依然として重要な懸念事項である。
様々な摂動シナリオ下でのVSSMの頑健さを総合的に評価する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - A Survey of Neural Network Robustness Assessment in Image Recognition [4.581878177334397]
近年,ニューラルネットワークの堅牢性評価に注目が集まっている。
ディープラーニングの堅牢性問題は特に重要であり、画像分類モデルに対する敵対的攻撃の発見によって強調される。
本稿では, ニューラルネットワーク評価において, 対向ロバスト性 (AR) と汚職ロバスト性 (CR) の両方を詳細に検討した。
論文 参考訳(メタデータ) (2024-04-12T07:19:16Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - Noisy Learning for Neural ODEs Acts as a Robustness Locus Widening [0.802904964931021]
差分方程式に基づくネットワーク(DE)の合成分布シフトに対するロバスト性評価の課題と課題について検討する。
そこで本研究では,本質的なロバスト性の評価や,データセットの破損シミュレーションの検証に使用可能な,新規で簡易な精度測定法を提案する。
論文 参考訳(メタデータ) (2022-06-16T15:10:38Z) - Searching for Robust Neural Architectures via Comprehensive and Reliable
Evaluation [6.612134996737988]
本稿では,ニューラルアーキテクチャの探索手法を応用した,AAD(Auto Adversarial Attack and Defense)と呼ばれる新しいフレームワークを提案する。
本研究では, 対向雑音, 自然騒音, システム騒音, 定量化指標の4種類のロバスト性評価について検討する。
CIFAR10データセットの実証結果は、探索された効率的な攻撃がより堅牢なアーキテクチャを見つけるのに役立つことを示している。
論文 参考訳(メタデータ) (2022-03-07T04:45:05Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Recent Advances in Understanding Adversarial Robustness of Deep Neural
Networks [15.217367754000913]
敵の例に抵抗する高い堅牢性を持つモデルを得ることがますます重要である。
我々は、敵の攻撃と堅牢性について、予備的な定義を与える。
我々は、頻繁に使用されるベンチマークについて研究し、理論的に証明された敵の堅牢性の境界について言及する。
論文 参考訳(メタデータ) (2020-11-03T07:42:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。