論文の概要: FAWA: Fast Adversarial Watermark Attack on Optical Character Recognition
(OCR) Systems
- arxiv url: http://arxiv.org/abs/2012.08096v1
- Date: Tue, 15 Dec 2020 05:19:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:29:43.594629
- Title: FAWA: Fast Adversarial Watermark Attack on Optical Character Recognition
(OCR) Systems
- Title(参考訳): FAWA:光学式文字認識(OCR)システムにおける高速逆透かし攻撃
- Authors: Lu Chen, Jiao Sun, Wei Xu
- Abstract要約: 既存のほとんどの敵攻撃によって生成された敵の例は不自然であり、背景を厳しく汚染する。
白箱方式のシーケンスベースOCRモデルに対して,FAWA(Fast Adversarial Watermark Attack)を提案する。
摂動を透かしとして振る舞うことで、人間の目に自然に敵像を見せることができ、完璧な攻撃成功率を達成することができる。
- 参考スコア(独自算出の注目度): 16.730943103571068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) significantly improved the accuracy of optical
character recognition (OCR) and inspired many important applications.
Unfortunately, OCRs also inherit the vulnerabilities of DNNs under adversarial
examples. Different from colorful vanilla images, text images usually have
clear backgrounds. Adversarial examples generated by most existing adversarial
attacks are unnatural and pollute the background severely. To address this
issue, we propose the Fast Adversarial Watermark Attack (FAWA) against
sequence-based OCR models in the white-box manner. By disguising the
perturbations as watermarks, we can make the resulting adversarial images
appear natural to human eyes and achieve a perfect attack success rate. FAWA
works with either gradient-based or optimization-based perturbation generation.
In both letter-level and word-level attacks, our experiments show that in
addition to natural appearance, FAWA achieves a 100% attack success rate with
60% less perturbations and 78% fewer iterations on average. In addition, we
further extend FAWA to support full-color watermarks, other languages, and even
the OCR accuracy-enhancing mechanism.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は光学文字認識(OCR)の精度を大幅に向上させ、多くの重要な応用に影響を与えた。
残念ながら、OCRは敵の例の下でDNNの脆弱性を継承している。
カラフルなバニラ画像とは異なり、テキスト画像は通常明確な背景を持つ。
既存のほとんどの敵攻撃によって生成された敵の例は不自然であり、背景を厳しく汚染する。
この問題に対処するために,シーケンスベースのOCRモデルに対して,White-box方式でFAWA(Fast Adversarial Watermark Attack)を提案する。
摂動を透かしとすることで、人間の目に自然に敵のイメージを見せることができ、完璧な攻撃成功率を達成することができる。
FAWAは勾配ベースまたは最適化ベースの摂動生成で動作する。
文字レベルの攻撃と単語レベルの攻撃の両方において、fawaは自然外観に加えて、摂動が60%少なく、イテレーションが平均78%少ない100%攻撃成功率を達成しています。
さらにfawaを拡張して,フルカラーのウォーターマーク,他の言語,さらにはocr精度向上機構もサポートする。
関連論文リスト
- Robustness of Watermarking on Text-to-Image Diffusion Models [9.277492743469235]
本稿では,透かし埋め込みとテキスト・ツー・イメージ・ジェネレーション処理を統合することで生成する透かしの堅牢性について検討する。
生成型透かし法は, 識別器による攻撃やエッジ予測に基づく攻撃のエッジ情報に基づく操作など, 直接回避攻撃に対して堅牢であるが, 悪意のある微調整には脆弱であることがわかった。
論文 参考訳(メタデータ) (2024-08-04T13:59:09Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Robust Real-World Image Super-Resolution against Adversarial Attacks [115.04009271192211]
準知覚不可能な雑音を持つ逆画像サンプルは、深層学習SRモデルを脅かす可能性がある。
本稿では,現実のSRに対して,潜在的な敵対的雑音をランダムに消去する頑健なディープラーニングフレームワークを提案する。
提案手法は敵攻撃に敏感であり,既存のモデルや防御よりも安定なSR結果を示す。
論文 参考訳(メタデータ) (2022-07-31T13:26:33Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Attacking Optical Character Recognition (OCR) Systems with Adversarial
Watermarks [22.751944254451875]
本研究では,透かしに変装した自然歪みを発生させ,人間の目の検出を回避するための透かし攻撃手法を提案する。
実験結果から,透かし攻撃は,透かしを付加した自然な逆転例の集合となり,異なる攻撃シナリオにおける最先端手法と類似した攻撃性能が得られることが示された。
論文 参考訳(メタデータ) (2020-02-08T05:53:21Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。