論文の概要: Adversarial Attacks on Binary Image Recognition Systems
- arxiv url: http://arxiv.org/abs/2010.11782v1
- Date: Thu, 22 Oct 2020 14:57:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 08:09:35.484071
- Title: Adversarial Attacks on Binary Image Recognition Systems
- Title(参考訳): バイナリ画像認識システムにおける逆攻撃
- Authors: Eric Balkanski, Harrison Chase, Kojin Oshiba, Alexander Rilee, Yaron
Singer, Richard Wang
- Abstract要約: 本研究では,二分法(黒と白)画像分類モデルに対する敵対攻撃について検討する。
カラー画像とグレースケール画像とは対照的に、バイナリ画像に対する攻撃の探索空間は極めて制限されている。
バイナリイメージの分類を騙すために設計された,SCARと呼ばれる新しい攻撃アルゴリズムを導入する。
- 参考スコア(独自算出の注目度): 78.78811131936622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We initiate the study of adversarial attacks on models for binary (i.e. black
and white) image classification. Although there has been a great deal of work
on attacking models for colored and grayscale images, little is known about
attacks on models for binary images. Models trained to classify binary images
are used in text recognition applications such as check processing, license
plate recognition, invoice processing, and many others. In contrast to colored
and grayscale images, the search space of attacks on binary images is extremely
restricted and noise cannot be hidden with minor perturbations in each pixel.
Thus, the optimization landscape of attacks on binary images introduces new
fundamental challenges.
In this paper we introduce a new attack algorithm called SCAR, designed to
fool classifiers of binary images. We show that SCAR significantly outperforms
existing $L_0$ attacks applied to the binary setting and use it to demonstrate
the vulnerability of real-world text recognition systems. SCAR's strong
performance in practice contrasts with the existence of classifiers that are
provably robust to large perturbations. In many cases, altering a single pixel
is sufficient to trick Tesseract, a popular open-source text recognition
system, to misclassify a word as a different word in the English dictionary. We
also license software from providers of check processing systems to most of the
major US banks and demonstrate the vulnerability of check recognitions for
mobile deposits. These systems are substantially harder to fool since they
classify both the handwritten amounts in digits and letters, independently.
Nevertheless, we generalize SCAR to design attacks that fool state-of-the-art
check processing systems using unnoticeable perturbations that lead to
misclassification of deposit amounts. Consequently, this is a powerful method
to perform financial fraud.
- Abstract(参考訳): 我々は,二分法(黒と白)画像分類モデルに対する敵攻撃の研究を開始する。
カラー画像とグレースケール画像のモデル攻撃には多くの取り組みがあったが、バイナリ画像のモデル攻撃についてはほとんど知られていない。
バイナリイメージを分類するために訓練されたモデルは、チェック処理、ライセンスプレート認識、請求書処理などのテキスト認識アプリケーションで使用される。
カラー画像やグレースケール画像とは対照的に、バイナリ画像に対する攻撃の検索空間は非常に制限され、各ピクセルに小さな摂動でノイズを隠すことはできない。
したがって、バイナリイメージに対する攻撃の最適化は、新たな根本的な課題をもたらす。
本稿では,バイナリ画像の分類器を騙すために設計された新しい攻撃アルゴリズムscarを提案する。
SCARはバイナリ設定に適用される既存の$L_0$攻撃を著しく上回り、実世界のテキスト認識システムの脆弱性を実証するためにそれを使用する。
SCARの実際のパフォーマンスは、大きな摂動に対して確実に堅牢な分類器の存在とは対照的である。
多くの場合、単一のピクセルを変更すれば、人気のあるオープンソースのテキスト認識システムであるTesseractを騙して、英語辞書で単語を別の単語として誤分類するのに十分である。
また、チェック処理システムのプロバイダから米国の主要銀行にソフトウェアをライセンスし、モバイル預金のチェック認識の脆弱性を実証しています。
これらのシステムは、手書きの数字と文字の両方を独立に分類するため、かなり騙すのが難しい。
それにもかかわらず、SCARを一般化して、無意味な摂動を用いて、預金量の誤分類につながる最先端のチェック処理システムを騙す攻撃を設計する。
したがって、これは金融詐欺を行うための強力な方法である。
関連論文リスト
- Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - I See Dead People: Gray-Box Adversarial Attack on Image-To-Text Models [0.0]
我々は、画像からテキストへのグレーボックスの逆攻撃を、未ターゲティングとターゲットの両方に提示する。
攻撃はグレーボックス方式で実行され、デコーダモジュールに関する知識は不要です。
また、私たちの攻撃は人気のあるオープンソースプラットフォームHugging Faceを騙していることも示しています。
論文 参考訳(メタデータ) (2023-06-13T07:35:28Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - A Black-Box Attack on Optical Character Recognition Systems [0.0]
敵対的機械学習は、ディープラーニングモデルの脆弱性を示す新興分野である。
本稿では,バイナリ画像分類器上での効果的なコンビネータブラックボックス攻撃法を提案する。
2つの異なるデータセットと3つの分類ネットワーク上での攻撃手法の有効性を検証し,その性能を実証した。
論文 参考訳(メタデータ) (2022-08-30T14:36:27Z) - Detecting Adversaries, yet Faltering to Noise? Leveraging Conditional
Variational AutoEncoders for Adversary Detection in the Presence of Noisy
Images [0.7734726150561086]
条件変分オートエンコーダ(CVAE)は、知覚不能な画像摂動を検出するのに驚くほど優れている。
画像分類ネットワーク上での敵攻撃を検出するために,CVAEを効果的に利用する方法を示す。
論文 参考訳(メタデータ) (2021-11-28T20:36:27Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Two-stage generative adversarial networks for document image
binarization with color noise and background removal [7.639067237772286]
本稿では,2段階のカラー文書画像強調・バイナライゼーション手法を提案する。
第1段階では、4つの色非依存の敵ネットワークを訓練し、入力画像から色前景情報を抽出する。
第2段階では、大域的・局所的な特徴を持つ2つの独立した敵対的ネットワークが、可変サイズの文書の画像バイナライズのために訓練されている。
論文 参考訳(メタデータ) (2020-10-20T07:51:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。