論文の概要: Is Neuron Coverage Needed to Make Person Detection More Robust?
- arxiv url: http://arxiv.org/abs/2204.10027v1
- Date: Thu, 21 Apr 2022 11:23:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-22 13:01:36.142631
- Title: Is Neuron Coverage Needed to Make Person Detection More Robust?
- Title(参考訳): 人の検出をより堅牢にするためにニューロンのカバレッジは必要か?
- Authors: Svetlana Pavlitskaya, \c{S}iyar Y{\i}km{\i}\c{s} and J. Marius
Z\"ollner
- Abstract要約: 本研究では,混み合った場面における人物検出の課題に対して,CGT(Comported-Guided Testing)を適用した。
提案したパイプラインは、人検出にYOLOv3を使用し、サンプリングと突然変異によるバグの発見を含む。
調査対象の指標が強靭性向上に有効であることを示す証拠は見出されていない。
- 参考スコア(独自算出の注目度): 3.395452700023097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing use of deep neural networks (DNNs) in safety- and
security-critical areas like autonomous driving raises the need for their
systematic testing. Coverage-guided testing (CGT) is an approach that applies
mutation or fuzzing according to a predefined coverage metric to find inputs
that cause misbehavior. With the introduction of a neuron coverage metric, CGT
has also recently been applied to DNNs. In this work, we apply CGT to the task
of person detection in crowded scenes. The proposed pipeline uses YOLOv3 for
person detection and includes finding DNN bugs via sampling and mutation, and
subsequent DNN retraining on the updated training set. To be a bug, we require
a mutated image to cause a significant performance drop compared to a clean
input. In accordance with the CGT, we also consider an additional requirement
of increased coverage in the bug definition. In order to explore several types
of robustness, our approach includes natural image transformations,
corruptions, and adversarial examples generated with the Daedalus attack. The
proposed framework has uncovered several thousand cases of incorrect DNN
behavior. The relative change in mAP performance of the retrained models
reached on average between 26.21\% and 64.24\% for different robustness types.
However, we have found no evidence that the investigated coverage metrics can
be advantageously used to improve robustness.
- Abstract(参考訳): 自律運転のような安全およびセキュリティクリティカルな領域におけるディープニューラルネットワーク(DNN)の利用の増加は、その体系的なテストの必要性を高めている。
Coverage-Guided Testing (CGT) は、事前に定義されたカバレッジ基準に従って突然変異やファジッシングを適用し、誤った振る舞いを引き起こすインプットを見つけるアプローチである。
神経カバレッジ指標の導入により、CGTは近年DNNにも適用されている。
本研究では,混雑したシーンにおける人物検出作業にCGTを適用した。
提案したパイプラインは、人検出にYOLOv3を使用し、サンプリングと突然変異によるDNNバグの発見と、更新されたトレーニングセットでのその後のDNN再トレーニングを含む。
バグとなるためには、クリーンな入力に比べて大きなパフォーマンス低下を引き起こすために、変更画像が必要である。
CGTに従って、バグ定義のカバレッジを増大させる追加の要件も検討する。
複数種類のロバスト性を探究するため,本手法では,自然画像変換,汚職,およびデダロス攻撃によって生じる敵の例を含む。
提案したフレームワークでは,DNNの誤動作が数千件報告されている。
再訓練されたモデルのmAP性能の相対的な変化は、異なる堅牢性タイプに対して平均26.21\%から64.24\%に到達した。
しかし, 調査対象の指標が強靭性向上に有効であることを示す証拠は見つかっていない。
関連論文リスト
- Augmented Neural Fine-Tuning for Efficient Backdoor Purification [16.74156528484354]
最近の研究では、様々なバックドア攻撃に対するディープニューラルネットワーク(DNN)の脆弱性が明らかにされている。
神経活動の最適再編成を目的としたニューラルマスクファインチューニング(NFT)を提案する。
NFTはトリガー合成プロセスを緩和し、逆探索モジュールの要求をなくす。
論文 参考訳(メタデータ) (2024-07-14T02:36:54Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - OccRob: Efficient SMT-Based Occlusion Robustness Verification of Deep
Neural Networks [7.797299214812479]
Occlusionは、ディープニューラルネットワーク(DNN)に対する一般的かつ容易に実現可能なセマンティック摂動である
DNNを騙していくつかのセグメントを隠蔽することで入力画像を誤分類し、おそらく深刻なエラーを引き起こす可能性がある。
DNNの既存のロバスト性検証アプローチは、非意味的な摂動に重点を置いている。
論文 参考訳(メタデータ) (2023-01-27T18:54:00Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Fighting COVID-19 in the Dark: Methodology for Improved Inference Using
Homomorphically Encrypted DNN [3.1959970303072396]
ホモモルフィック暗号化(HE)は、プライバシー問題に対処しながら分析を可能にする方法として使われている。
HEの使用には、サイズ制限やいくつかの操作タイプのサポートの欠如など、いくつかの課題がある。
本稿では,ReLUを2次活性化に置き換える構造的手法を提案する。
論文 参考訳(メタデータ) (2021-11-05T10:04:15Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Accelerating Robustness Verification of Deep Neural Networks Guided by
Target Labels [8.9960048245668]
ディープニューラルネットワーク(DNN)は、自律運転や医療診断など、多くの安全クリティカルなアプリケーションの主要なコンポーネントとなっている。
DNNは、入力に対する小さな摂動が誤った予測をもたらすような敵の例に感受性があるため、ロバスト性に悩まされる。
本稿では,ロバスト性検証を目標ラベルで導くことによって,ロバスト性検証手法を高速化する手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T00:51:52Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。