論文の概要: A Black-Box Attack on Optical Character Recognition Systems
- arxiv url: http://arxiv.org/abs/2208.14302v1
- Date: Tue, 30 Aug 2022 14:36:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-31 12:49:46.245378
- Title: A Black-Box Attack on Optical Character Recognition Systems
- Title(参考訳): 光文字認識システムにおけるブラックボックス攻撃
- Authors: Samet Bayram and Kenneth Barner
- Abstract要約: 敵対的機械学習は、ディープラーニングモデルの脆弱性を示す新興分野である。
本稿では,バイナリ画像分類器上での効果的なコンビネータブラックボックス攻撃法を提案する。
2つの異なるデータセットと3つの分類ネットワーク上での攻撃手法の有効性を検証し,その性能を実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial machine learning is an emerging area showing the vulnerability of
deep learning models. Exploring attack methods to challenge state of the art
artificial intelligence (A.I.) models is an area of critical concern. The
reliability and robustness of such A.I. models are one of the major concerns
with an increasing number of effective adversarial attack methods.
Classification tasks are a major vulnerable area for adversarial attacks. The
majority of attack strategies are developed for colored or gray-scaled images.
Consequently, adversarial attacks on binary image recognition systems have not
been sufficiently studied. Binary images are simple two possible pixel-valued
signals with a single channel. The simplicity of binary images has a
significant advantage compared to colored and gray scaled images, namely
computation efficiency. Moreover, most optical character recognition systems
(O.C.R.s), such as handwritten character recognition, plate number
identification, and bank check recognition systems, use binary images or
binarization in their processing steps. In this paper, we propose a simple yet
efficient attack method, Efficient Combinatorial Black-box Adversarial Attack,
on binary image classifiers. We validate the efficiency of the attack technique
on two different data sets and three classification networks, demonstrating its
performance. Furthermore, we compare our proposed method with state-of-the-art
methods regarding advantages and disadvantages as well as applicability.
- Abstract(参考訳): 敵対的機械学習は、ディープラーニングモデルの脆弱性を示す新興分野である。
人工知能(A.I.)モデルに挑戦するための攻撃方法の探索は重要な関心事である。
このようなa.i.モデルの信頼性と堅牢性は、効果的な敵対的攻撃方法の増加に対する主要な懸念の1つである。
分類タスクは敵攻撃の主要な脆弱な領域である。
攻撃戦略の大半は、カラーまたはグレースケールの画像に対して開発されている。
その結果、バイナリ画像認識システムに対する敵攻撃は十分に研究されていない。
バイナリ画像は単一のチャネルを持つ2つのピクセル値信号である。
バイナリ画像の単純さは、カラー画像やグレースケール画像、すなわち計算効率に比べて大きな利点がある。
さらに、手書き文字認識、プレート番号識別、銀行チェック認識システムなど、ほとんどの光学文字認識システム(O.C.R.s)は、処理ステップでバイナリイメージまたはバイナライズを使用する。
本稿では,バイナリ画像分類器に対して,簡便かつ効率的な攻撃手法である効率的な組合せブラックボックス攻撃を提案する。
2つの異なるデータセットと3つの分類ネットワークにおける攻撃手法の効率を検証し,その性能を示す。
さらに,提案手法と最先端手法との比較を行い,利点と欠点,適用性について検討した。
関連論文リスト
- Undermining Image and Text Classification Algorithms Using Adversarial Attacks [0.0]
本研究は,各種機械学習モデルを訓練し,GANとSMOTEを用いてテキスト分類モデルへの攻撃を目的とした追加データポイントを生成することにより,そのギャップを解消する。
実験の結果,分類モデルの重大な脆弱性が明らかとなった。特に,攻撃後の最上位のテキスト分類モデルの精度が20%低下し,顔認識精度が30%低下した。
論文 参考訳(メタデータ) (2024-11-03T18:44:28Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - A Perturbation Resistant Transformation and Classification System for
Deep Neural Networks [0.685316573653194]
深層畳み込みニューラルネットワークは、さまざまな自然画像の正確な分類を行うが、設計時には容易に認識できる。
本稿では,攻撃的かつ容易に推定できないマルチプロハングトレーニング,非バウンド入力変換,画像アンサンブルシステムを設計する。
論文 参考訳(メタデータ) (2022-08-25T02:58:47Z) - Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks [32.48820298978333]
ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
論文 参考訳(メタデータ) (2021-08-23T14:52:44Z) - FACESEC: A Fine-grained Robustness Evaluation Framework for Face
Recognition Systems [49.577302852655144]
FACESECは、顔認識システムのきめ細かい堅牢性評価のためのフレームワークです。
5つの顔認識システムをクローズド設定とオープン設定の両方で検討します。
ニューラルネットワークの正確な知識は、ブラックボックス攻撃におけるトレーニングデータの知識よりもはるかに重要である。
論文 参考訳(メタデータ) (2021-04-08T23:00:25Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Adversarial Attacks on Binary Image Recognition Systems [78.78811131936622]
本研究では,二分法(黒と白)画像分類モデルに対する敵対攻撃について検討する。
カラー画像とグレースケール画像とは対照的に、バイナリ画像に対する攻撃の探索空間は極めて制限されている。
バイナリイメージの分類を騙すために設計された,SCARと呼ばれる新しい攻撃アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-22T14:57:42Z) - Encoding Power Traces as Images for Efficient Side-Channel Analysis [0.0]
サイドチャネル攻撃(SCA)は、暗号アルゴリズムの実装を攻撃するための強力な方法である。
ディープラーニング(DL)メソッドは、SCAを単純化し、同時に攻撃を成功させるために必要なサイドチャネルトレースの量を削減します。
本稿では,1次元トレースを2次元画像として解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-04-23T08:00:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。