論文の概要: Chromatic and spatial analysis of one-pixel attacks against an image
classifier
- arxiv url: http://arxiv.org/abs/2105.13771v1
- Date: Fri, 28 May 2021 12:21:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-31 13:51:46.052490
- Title: Chromatic and spatial analysis of one-pixel attacks against an image
classifier
- Title(参考訳): 画像分類器に対する1画素攻撃の色的・空間的解析
- Authors: Janne Alatalo, Joni Korpihalkola, Tuomo Sipola, Tero Kokkonen
- Abstract要約: 本研究では,1ピクセル攻撃の色分布と空間分布を解析する方法を提案する。
より効果的な攻撃ではピクセルの色が変化し,画像の中心に攻撃が配置されることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: One-pixel attack is a curious way of deceiving neural network classifier by
changing only one pixel in the input image. The full potential and boundaries
of this attack method are not yet fully understood. In this research, the
successful and unsuccessful attacks are studied in more detail to illustrate
the working mechanisms of a one-pixel attack. The data comes from our earlier
studies where we applied the attack against medical imaging. We used a real
breast cancer tissue dataset and a real classifier as the attack target. This
research presents ways to analyze chromatic and spatial distributions of
one-pixel attacks. In addition, we present one-pixel attack confidence maps to
illustrate the behavior of the target classifier. We show that the more
effective attacks change the color of the pixel more, and that the successful
attacks are situated at the center of the images. This kind of analysis is not
only useful for understanding the behavior of the attack but also the qualities
of the classifying neural network.
- Abstract(参考訳): ワンピクセル攻撃は、入力画像中の1ピクセルだけを変更してニューラルネットワーク分類器を識別する興味深い方法である。
この攻撃方法のポテンシャルと限界は、まだ完全には理解されていない。
本研究では,1ピクセル攻撃の動作機構を説明するために,攻撃の成功と失敗についてより詳細に研究する。
データは、医療画像に対する攻撃を応用した初期の研究から得られたものです。
実際の乳癌組織データセットと実際の分類器を攻撃標的として使用した。
本研究では1ピクセル攻撃の色分布と空間分布を解析する方法を提案する。
さらに,対象分類器の動作を示す1画素の攻撃信頼性マップを提案する。
より効果的な攻撃ではピクセルの色が変化し,画像の中心に攻撃が配置されていることを示す。
この種の分析は、攻撃の振る舞いを理解するだけでなく、分類するニューラルネットワークの特性を理解するのに有用である。
関連論文リスト
- Pixle: a fast and effective black-box attack based on rearranging pixels [15.705568893476947]
ブラックボックスの敵攻撃は攻撃モデルの内部構造を知ることなく行うことができる。
本稿では,攻撃画像内に少数の画素を並べ替えることで,高い割合のサンプルを正しく攻撃できる新たな攻撃法を提案する。
我々の攻撃は、多数のデータセットやモデルに作用し、少数の反復が必要であり、元のサンプルと逆のサンプルの間の距離が人間の目では無視可能であることを実証する。
論文 参考訳(メタデータ) (2022-02-04T17:03:32Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Deep neural network loses attention to adversarial images [11.650381752104296]
敵アルゴリズムは様々なタスクにおいてニューラルネットワークに対して有効であることが示されている。
Pixelアタックの場合、乱れたピクセルがネットワークの注意を自分自身に呼び出すか、それらから注意を逸らすかを示す。
また,どちらの攻撃もサリエンシマップとアクティベーションマップに異なる影響を及ぼすことを示した。
論文 参考訳(メタデータ) (2021-06-10T11:06:17Z) - PICA: A Pixel Correlation-based Attentional Black-box Adversarial Attack [37.15301296824337]
PICAと呼ばれる画素相関に基づく注目ブラックボックス対向攻撃を提案する。
PICAは、既存のブラックボックス攻撃と比較して高解像度の逆例を生成するのが効率的である。
論文 参考訳(メタデータ) (2021-01-19T09:53:52Z) - One-Pixel Attack Deceives Automatic Detection of Breast Cancer [0.0]
1ピクセルの攻撃は、実際の腫瘍データセットを持つ実際のシナリオで実証される。
その結果,スライド画像全体の1ピクセルの小さな修正が診断に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-01T14:27:28Z) - Patch-wise Attack for Fooling Deep Neural Network [153.59832333877543]
我々は,一般的な訓練と防御モデルに対するブラックボックス攻撃であるパッチワイド反復アルゴリズムを提案する。
我々は、防衛モデルで9.2%、通常訓練されたモデルで3.7%、成功率で著しく改善した。
論文 参考訳(メタデータ) (2020-07-14T01:50:22Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Evading Deepfake-Image Detectors with White- and Black-Box Attacks [75.13740810603686]
一般的な法医学的アプローチは、ニューラルネットワークを訓練して、実際の合成内容と区別することを示します。
我々は,既存の画像生成装置の約0.95のLOC曲線(AUC)以下の領域を達成できる最先端の分類器に関する5つの攻撃事例研究を開発した。
また、ターゲット分類器にアクセスできないブラックボックス攻撃により、AUCを0.22に削減する。
論文 参考訳(メタデータ) (2020-04-01T17:59:59Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。