論文の概要: Verification of Deep Convolutional Neural Networks Using ImageStars
- arxiv url: http://arxiv.org/abs/2004.05511v2
- Date: Thu, 14 May 2020 20:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:03:11.519909
- Title: Verification of Deep Convolutional Neural Networks Using ImageStars
- Title(参考訳): ImageStarsを用いた深部畳み込みニューラルネットワークの検証
- Authors: Hoang-Dung Tran, Stanley Bak, Weiming Xiang and Taylor T.Johnson
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、多くの現実世界で最先端のアプリケーションを再定義している。
CNNは敵の攻撃に対して脆弱であり、入力のわずかな変更は出力の急激な変更につながる可能性がある。
本稿では,VGG16やVGG19などの実世界のCNNを,ImageNet上で高い精度で処理可能なセットベースフレームワークについて述べる。
- 参考スコア(独自算出の注目度): 10.44732293654293
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Convolutional Neural Networks (CNN) have redefined the state-of-the-art in
many real-world applications, such as facial recognition, image classification,
human pose estimation, and semantic segmentation. Despite their success, CNNs
are vulnerable to adversarial attacks, where slight changes to their inputs may
lead to sharp changes in their output in even well-trained networks. Set-based
analysis methods can detect or prove the absence of bounded adversarial
attacks, which can then be used to evaluate the effectiveness of neural network
training methodology. Unfortunately, existing verification approaches have
limited scalability in terms of the size of networks that can be analyzed.
In this paper, we describe a set-based framework that successfully deals with
real-world CNNs, such as VGG16 and VGG19, that have high accuracy on ImageNet.
Our approach is based on a new set representation called the ImageStar, which
enables efficient exact and over-approximative analysis of CNNs. ImageStars
perform efficient set-based analysis by combining operations on concrete images
with linear programming (LP). Our approach is implemented in a tool called NNV,
and can verify the robustness of VGG networks with respect to a small set of
input states, derived from adversarial attacks, such as the DeepFool attack.
The experimental results show that our approach is less conservative and faster
than existing zonotope methods, such as those used in DeepZ, and the polytope
method used in DeepPoly.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnn)は、顔認識、画像分類、人間のポーズ推定、セマンティックセグメンテーションなど、多くの現実のアプリケーションで最先端の技術を再定義した。
彼らの成功にもかかわらず、CNNは敵の攻撃に弱いため、入力のわずかな変更は、十分に訓練されたネットワークでも出力の急激な変更につながる可能性がある。
セットベースの分析手法は、境界付き敵攻撃が存在しないことを検出または証明し、ニューラルネットワークトレーニング手法の有効性を評価するのに使用できる。
残念ながら、既存の検証アプローチでは、解析可能なネットワークのサイズに関してスケーラビリティが制限されている。
本稿では,VGG16 や VGG19 などの実世界の CNN を,ImageNet 上で高い精度で処理する,集合ベースのフレームワークについて述べる。
提案手法は,CNNの高精度かつ過剰な近似解析を可能にするImageStarと呼ばれる新しい集合表現に基づいている。
ImageStarsは、具体的な画像の操作と線形プログラミング(LP)を組み合わせることで、効率的なセットベース解析を行う。
提案手法はNNVと呼ばれるツールで実装されており,DeepFool攻撃などの敵攻撃から得られた少数の入力状態に対して,VGGネットワークの堅牢性を検証することができる。
実験の結果,我々のアプローチは,deepz や deeppoly で用いられる polytope 法のような既存の zonotope 法よりも保守的で高速であることが判明した。
関連論文リスト
- Defending Spiking Neural Networks against Adversarial Attacks through Image Purification [20.492531851480784]
Spiking Neural Networks(SNN)は、神経科学と機械学習のギャップを埋めることを目的としている。
SNNは畳み込みニューラルネットワークのような敵の攻撃に弱い。
本稿では,SNNの堅牢性を高めるための生物学的にインスパイアされた手法を提案する。
論文 参考訳(メタデータ) (2024-04-26T00:57:06Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Impact of Scaled Image on Robustness of Deep Neural Networks [0.0]
生画像のスケーリングはアウト・オブ・ディストリビューションデータを生成するため、ネットワークを騙すための敵攻撃の可能性がある。
本研究では,ImageNet Challengeデータセットのサブセットを複数でスケーリングすることで,Scaling-DistortionデータセットのImageNet-CSを提案する。
論文 参考訳(メタデータ) (2022-09-02T08:06:58Z) - Blind Image Inpainting with Sparse Directional Filter Dictionaries for
Lightweight CNNs [4.020698631876855]
本稿では,要素を線形に重み付けしたフィルタ辞書を応用した畳み込みカーネルの学習手法を提案する。
この結果から,従来のCNNに比べて塗装品質が向上しただけでなく,軽量ネットワーク設計におけるネットワーク収束性も大幅に向上した。
論文 参考訳(メタデータ) (2022-05-13T12:44:44Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - New SAR target recognition based on YOLO and very deep multi-canonical
correlation analysis [0.1503974529275767]
本稿では,異なるCNN層から有効な特徴を適応的に融合させることにより,SAR画像ターゲット分類のためのロバストな特徴抽出手法を提案する。
MSTARデータセットの実験により,提案手法が最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-10-28T18:10:26Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。