論文の概要: Invisible Threats: Backdoor Attack in OCR Systems
- arxiv url: http://arxiv.org/abs/2310.08259v1
- Date: Thu, 12 Oct 2023 12:05:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 11:27:48.031744
- Title: Invisible Threats: Backdoor Attack in OCR Systems
- Title(参考訳): Invisible Threats: OCRシステムにおけるバックドア攻撃
- Authors: Mauro Conti, Nicola Farronato, Stefanos Koffas, Luca Pajola, Stjepan
Picek
- Abstract要約: 本研究は、悪意のある入力画像から読みにくい文字を注入するOCRのバックドア攻撃を提案する。
この単純で効果的な攻撃は、最先端のOCRの弱点を露呈し、抽出されたテキストを人間の目で修正するが、NLPアプリケーションでは同時に使用できない。
- 参考スコア(独自算出の注目度): 26.471281625129226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optical Character Recognition (OCR) is a widely used tool to extract text
from scanned documents. Today, the state-of-the-art is achieved by exploiting
deep neural networks. However, the cost of this performance is paid at the
price of system vulnerability. For instance, in backdoor attacks, attackers
compromise the training phase by inserting a backdoor in the victim's model
that will be activated at testing time by specific patterns while leaving the
overall model performance intact. This work proposes a backdoor attack for OCR
resulting in the injection of non-readable characters from malicious input
images. This simple but effective attack exposes the state-of-the-art OCR
weakness, making the extracted text correct to human eyes but simultaneously
unusable for the NLP application that uses OCR as a preprocessing step.
Experimental results show that the attacked models successfully output
non-readable characters for around 90% of the poisoned instances without
harming their performance for the remaining instances.
- Abstract(参考訳): 光文字認識(OCR)は、スキャンされた文書からテキストを抽出するツールである。
今日では、最先端のニューラルネットワークを活用して実現されている。
しかし、このパフォーマンスのコストはシステムの脆弱性の代償として支払われる。
例えば、バックドア攻撃では、攻撃者は、モデル全体のパフォーマンスを損なうことなく、特定のパターンによってテスト時にアクティベートされる被害者のモデルにバックドアを挿入することで、トレーニングフェーズを妥協する。
本研究は、悪意のある入力画像から読みにくい文字を注入するOCRのバックドア攻撃を提案する。
この単純だが効果的な攻撃は、最先端のOCRの弱点を露呈し、抽出されたテキストを人間の目で修正するが、OCRを前処理ステップとするNLPアプリケーションでは使用できない。
実験の結果, 攻撃されたモデルでは, 有害なインスタンスの約90%で読みやすい文字を出力することができた。
関連論文リスト
- Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - SATBA: An Invisible Backdoor Attack Based On Spatial Attention [7.405457329942725]
バックドア攻撃には、隠れたトリガーパターンを含むデータセットに対するDeep Neural Network(DNN)のトレーニングが含まれる。
既存のバックドア攻撃のほとんどは、2つの重大な欠点に悩まされている。
空間的注意とU-netモデルを用いてこれらの制限を克服するSATBAという新しいバックドアアタックを提案する。
論文 参考訳(メタデータ) (2023-02-25T10:57:41Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z) - Attacking Optical Character Recognition (OCR) Systems with Adversarial
Watermarks [22.751944254451875]
本研究では,透かしに変装した自然歪みを発生させ,人間の目の検出を回避するための透かし攻撃手法を提案する。
実験結果から,透かし攻撃は,透かしを付加した自然な逆転例の集合となり,異なる攻撃シナリオにおける最先端手法と類似した攻撃性能が得られることが示された。
論文 参考訳(メタデータ) (2020-02-08T05:53:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。