論文の概要: Formal Verification of Deep Neural Networks for Object Detection
- arxiv url: http://arxiv.org/abs/2407.01295v5
- Date: Mon, 18 Nov 2024 09:54:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-19 14:29:14.889652
- Title: Formal Verification of Deep Neural Networks for Object Detection
- Title(参考訳): 物体検出のためのディープニューラルネットワークの形式的検証
- Authors: Yizhak Y. Elboher, Avraham Raviv, Yael Leibovich Weiss, Omer Cohen, Roy Assa, Guy Katz, Hillel Kugler,
- Abstract要約: ディープニューラルネットワーク(DNN)は、現実世界のアプリケーションで広く使われているが、エラーや敵攻撃に弱いままである。
この研究は形式的検証を、より複雑なエホブジェクト検出モデルの領域に拡張する。
- 参考スコア(独自算出の注目度): 1.947473271879451
- License:
- Abstract: Deep neural networks (DNNs) are widely used in real-world applications, yet they remain vulnerable to errors and adversarial attacks. Formal verification offers a systematic approach to identify and mitigate these vulnerabilities, enhancing model robustness and reliability. While most existing verification methods focus on image classification models, this work extends formal verification to the more complex domain of emph{object detection} models. We propose a formulation for verifying the robustness of such models and demonstrate how state-of-the-art verification tools, originally developed for classification, can be adapted for this purpose. Our experiments, conducted on various datasets and networks, highlight the ability of formal verification to uncover vulnerabilities in object detection models, underscoring the need to extend verification efforts to this domain. This work lays the foundation for further research into formal verification across a broader range of computer vision applications.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、現実世界のアプリケーションで広く使われているが、エラーや敵攻撃に弱いままである。
形式的検証は、これらの脆弱性を特定して軽減するための体系的なアプローチを提供し、モデルの堅牢性と信頼性を高めます。
既存の検証手法の多くは画像分類モデルに重点を置いているが、この研究はより複雑なemph{object detection}モデルの領域に形式的検証を拡張している。
本稿では,このようなモデルのロバスト性を検証するための定式化を提案し,その目的のために,もともと分類のために開発された最先端の検証ツールをどのように適用できるかを実証する。
さまざまなデータセットやネットワーク上で実施した本実験では,オブジェクト検出モデルの脆弱性を明らかにするための形式的検証機能を強調し,検証作業をこの領域に拡張する必要性を強調した。
この研究は、幅広いコンピュータビジョンアプリケーションにわたる形式的検証に関するさらなる研究の基礎を築いた。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - ModelVerification.jl: a Comprehensive Toolbox for Formally Verifying Deep Neural Networks [9.279864701876367]
我々は,異なるタイプのディープニューラルネットワーク(DNN)と安全仕様を検証するための,最初の包括的かつ最先端のツールボックスである textttModelVerification.jl (MV) を提案する。
この汎用ツールボックスは、開発者や機械学習実践者に対して、彼らのDNNモデルの信頼性を検証し、確実にするための堅牢なツールを提供することを目的としている。
論文 参考訳(メタデータ) (2024-06-30T20:15:31Z) - Integrity Monitoring of 3D Object Detection in Automated Driving Systems using Raw Activation Patterns and Spatial Filtering [12.384452095533396]
ディープニューラルネットワーク(DNN)モデルは、自動運転システム(ADS)における物体検出に広く利用されている。
しかし、そのようなモデルは、重大な安全性に影響を及ぼす可能性のあるエラーを起こしやすい。
このようなエラーを検知することを目的とした検査・自己評価モデルは、ADSの安全な配置において最重要となる。
論文 参考訳(メタデータ) (2024-05-13T10:03:03Z) - Neural Network Verification using Residual Reasoning [0.0]
本稿では,経験的推論を用いて,抽象化に基づくニューラルネットワークの検証の強化を提案する。
本質的には、精細化されたネットワークが正しく振る舞うことを保証された検索空間の一部に関する情報を、検証者が格納することができる。
論文 参考訳(メタデータ) (2022-08-05T10:39:04Z) - Adversarial Machine Learning In Network Intrusion Detection Domain: A
Systematic Review [0.0]
ディープラーニングモデルは、誤った分類決定を行うためにモデルを誤解させる可能性のあるデータインスタンスに対して脆弱であることがわかった。
本調査では,ネットワーク侵入検出分野における敵機械学習のさまざまな側面を利用した研究について検討する。
論文 参考訳(メタデータ) (2021-12-06T19:10:23Z) - Unsupervised Domain Adaption of Object Detectors: A Survey [87.08473838767235]
近年のディープラーニングの進歩は、様々なコンピュータビジョンアプリケーションのための正確で効率的なモデルの開発につながっている。
高度に正確なモデルを学ぶには、大量の注釈付きイメージを持つデータセットの可用性に依存する。
このため、ラベルスカースデータセットに視覚的に異なる画像がある場合、モデルの性能は大幅に低下する。
論文 参考訳(メタデータ) (2021-05-27T23:34:06Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。