論文の概要: Analyzing Adversarial Robustness of Deep Neural Networks in Pixel Space:
a Semantic Perspective
- arxiv url: http://arxiv.org/abs/2106.09872v1
- Date: Fri, 18 Jun 2021 02:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:01:23.088412
- Title: Analyzing Adversarial Robustness of Deep Neural Networks in Pixel Space:
a Semantic Perspective
- Title(参考訳): ピクセル空間における深部ニューラルネットワークの対向ロバスト性の解析:意味論的視点
- Authors: Lina Wang, Xingshu Chen, Yulong Wang, Yawei Yue, Yi Zhu, Xuemei Zeng,
Wei Wang
- Abstract要約: 敵の例は、入力を知覚不能な摂動で修正し、ネットワークが誤った出力を生成することを誤解することによって悪質に作成される。
画像レベルでは,画像分類器の対角的ロバスト性について検討し,画像中の画素情報をすべて無差別に利用する。
本研究では,分割画像の異なる領域の画素による摂動画素の探索を行うアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 23.69696449352784
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The vulnerability of deep neural networks to adversarial examples, which are
crafted maliciously by modifying the inputs with imperceptible perturbations to
misled the network produce incorrect outputs, reveals the lack of robustness
and poses security concerns. Previous works study the adversarial robustness of
image classifiers on image level and use all the pixel information in an image
indiscriminately, lacking of exploration of regions with different semantic
meanings in the pixel space of an image. In this work, we fill this gap and
explore the pixel space of the adversarial image by proposing an algorithm to
looking for possible perturbations pixel by pixel in different regions of the
segmented image. The extensive experimental results on CIFAR-10 and ImageNet
verify that searching for the modified pixel in only some pixels of an image
can successfully launch the one-pixel adversarial attacks without requiring all
the pixels of the entire image, and there exist multiple vulnerable points
scattered in different regions of an image. We also demonstrate that the
adversarial robustness of different regions on the image varies with the amount
of semantic information contained.
- Abstract(参考訳): 深層ニューラルネットワークの敵例に対する脆弱性は、ネットワークが誤った出力を生成することを誤解するために、知覚不能な摂動で入力を修正することで悪用され、堅牢性の欠如とセキュリティ上の懸念が浮き彫りになる。
前回の研究では、画像レベルにおける画像分類器の敵対的頑健性を調査し、画像内のすべての画素情報を無差別に使用し、画像の画素空間における意味的意味の異なる領域の探索を欠いている。
本研究では, このギャップを埋め, 対向画像の画素空間を探索するために, セグメント化画像の異なる領域の画素で可能な摂動画素を求めるアルゴリズムを提案する。
CIFAR-10とImageNetの広範な実験結果は、画像の一部のピクセルで修正されたピクセルを検索することで、画像全体のピクセルを全て必要とせずに1ピクセルの対角攻撃をうまく起動できることを確認し、画像の異なる領域に複数の脆弱な点が存在する。
また,画像上の異なる領域の対角的堅牢性は,意味情報の量によって異なることを示す。
関連論文リスト
- UP-CrackNet: Unsupervised Pixel-Wise Road Crack Detection via Adversarial Image Restoration [23.71017765426465]
本稿では,UP-CrackNet と呼ばれる非教師付き画素単位の道路亀裂検出ネットワークを提案する。
提案手法はまずマルチスケールの正方形マスクを生成し,特定領域を除去して無害道路画像をランダムに選別する。
生成的敵ネットワークは、周辺未破壊領域から学習した意味的文脈を活用することにより、腐敗した領域を復元するように訓練される。
論文 参考訳(メタデータ) (2024-01-28T12:51:01Z) - Exploring Geometry of Blind Spots in Vision Models [56.47644447201878]
CNNやトランスフォーマーのような視覚モデルにおける過敏性の現象について検討する。
本稿では,入力空間に対する信頼度の高い領域を反復的に探索するレベルセットトラバースアルゴリズムを提案する。
モデルが高い信頼度を維持するこれらの連結高次元領域の範囲を推定する。
論文 参考訳(メタデータ) (2023-10-30T18:00:33Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Probabilistic Deep Metric Learning for Hyperspectral Image
Classification [91.5747859691553]
本稿では,ハイパースペクトル画像分類のための確率論的深度学習フレームワークを提案する。
ハイパースペクトルセンサーが捉えた画像に対して、各ピクセルのカテゴリを予測することを目的としている。
我々のフレームワークは、既存のハイパースペクトル画像分類法に容易に適用できる。
論文 参考訳(メタデータ) (2022-11-15T17:57:12Z) - Structure-Preserving Progressive Low-rank Image Completion for Defending
Adversarial Attacks [20.700098449823024]
ディープニューラルネットワークは、局所的な画像の詳細を分析し、推論層に沿って情報を要約することでオブジェクトを認識し、最終的な決定を導出する。
入力画像の小さな洗練されたノイズは、ネットワーク推測経路に沿って蓄積し、ネットワーク出力で間違った決定を下すことができる。
人間の目は、ローカルイメージテクスチャではなく、グローバルな構造とセマンティックなキューに基づいてオブジェクトを認識します。
論文 参考訳(メタデータ) (2021-03-04T01:24:15Z) - AINet: Association Implantation for Superpixel Segmentation [82.21559299694555]
今回提案する新しいtextbfAssociation textbfImplantation(AI)モジュールは、ネットワークがピクセルとその周辺グリッド間の関係を明示的にキャプチャすることを可能にする。
本手法は最先端性能を実現するだけでなく,十分な推論効率を維持することができた。
論文 参考訳(メタデータ) (2021-01-26T10:40:13Z) - Gigapixel Histopathological Image Analysis using Attention-based Neural
Networks [7.1715252990097325]
圧縮経路と学習経路からなるCNN構造を提案する。
本手法は,グローバル情報とローカル情報の両方を統合し,入力画像のサイズに関して柔軟であり,弱い画像レベルラベルのみを必要とする。
論文 参考訳(メタデータ) (2021-01-25T10:18:52Z) - An Empirical Method to Quantify the Peripheral Performance Degradation
in Deep Networks [18.808132632482103]
畳み込みニューラルネットワーク(CNN)カーネルは、各畳み込み層に結合する。
より深いネットワークとストライドベースのダウンサンプリングを組み合わせることで、この領域の伝播は、画像の無視できない部分をカバーすることができる。
我々のデータセットは、高解像度の背景にオブジェクトを挿入することで構築され、画像境界に対してターゲットオブジェクトを特定の位置に配置するサブイメージを収穫することができる。
マスクR-CNNの動作を目標位置の選択にわたって探索することにより、画像境界付近、特に画像コーナーにおいて、パフォーマンス劣化の明確なパターンが明らかになる。
論文 参考訳(メタデータ) (2020-12-04T18:00:47Z) - Free-Form Image Inpainting via Contrastive Attention Network [64.05544199212831]
画像の塗装作業では、複雑なパターンを形成する画像のどこにでも、どんな形でもマスクが現れる。
エンコーダはこの複雑な状況下でこのような強力な表現を捕捉することは困難である。
本稿では,ロバスト性と一般化性を改善するための自己教師型シームズ推論ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-29T14:46:05Z) - Rethinking of the Image Salient Object Detection: Object-level Semantic
Saliency Re-ranking First, Pixel-wise Saliency Refinement Latter [62.26677215668959]
本稿では,意味的に有意な領域を粗い位置で特定する,軽量で教師付きの深層ネットワークを提案する。
次に,これらセマンティック・サリエント領域の深層モデルを画素ワイド・サリエンシ改善として融合する。
提案手法は単純だが有効であり,本手法は主眼をオブジェクトレベルのセマンティック・リグレード問題とみなすための最初の試みである。
論文 参考訳(メタデータ) (2020-08-10T07:12:43Z) - A Black-box Adversarial Attack Strategy with Adjustable Sparsity and
Generalizability for Deep Image Classifiers [16.951363298896638]
ブラックボックスの逆転摂動は現実世界のアプリケーションにとってより実用的である。
本稿では,有効普遍画素制限摂動を構成するためのDceitアルゴリズムを提案する。
Deceitを用いた画像の摂動は,約10%の画素しか持たないことが判明した。
論文 参考訳(メタデータ) (2020-04-24T19:42:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。