論文の概要: Attacking Optical Character Recognition (OCR) Systems with Adversarial
Watermarks
- arxiv url: http://arxiv.org/abs/2002.03095v1
- Date: Sat, 8 Feb 2020 05:53:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:47:54.935437
- Title: Attacking Optical Character Recognition (OCR) Systems with Adversarial
Watermarks
- Title(参考訳): 逆透かしを用いた光学文字認識(OCR)システムへの攻撃
- Authors: Lu Chen and Wei Xu
- Abstract要約: 本研究では,透かしに変装した自然歪みを発生させ,人間の目の検出を回避するための透かし攻撃手法を提案する。
実験結果から,透かし攻撃は,透かしを付加した自然な逆転例の集合となり,異なる攻撃シナリオにおける最先端手法と類似した攻撃性能が得られることが示された。
- 参考スコア(独自算出の注目度): 22.751944254451875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical character recognition (OCR) is widely applied in real applications
serving as a key preprocessing tool. The adoption of deep neural network (DNN)
in OCR results in the vulnerability against adversarial examples which are
crafted to mislead the output of the threat model. Different from vanilla
colorful images, images of printed text have clear backgrounds usually.
However, adversarial examples generated by most of the existing adversarial
attacks are unnatural and pollute the background severely. To address this
issue, we propose a watermark attack method to produce natural distortion that
is in the disguise of watermarks and evade human eyes' detection. Experimental
results show that watermark attacks can yield a set of natural adversarial
examples attached with watermarks and attain similar attack performance to the
state-of-the-art methods in different attack scenarios.
- Abstract(参考訳): オプティカルキャラクタ認識(ocr)は、キープリプロセッシングツールとして機能する実アプリケーションに広く適用されている。
OCRにおけるディープニューラルネットワーク(DNN)の採用は、脅威モデルの出力を誤解させるために開発された敵の例に対する脆弱性をもたらす。
バニラのカラフルな画像とは異なり、印刷されたテキストのイメージは通常明確な背景を持つ。
しかし、既存の敵攻撃の大半によって生成された敵の例は不自然であり、背景を厳しく汚染している。
そこで本研究では,水痕を偽装して人間の目の動きを回避し,自然歪を発生させる水標攻撃手法を提案する。
実験結果から,透かし攻撃は,透かしを付加した自然な逆転例の集合となり,異なる攻撃シナリオにおける最先端手法と類似した攻撃性能が得られることが示された。
関連論文リスト
- Social Media Authentication and Combating Deepfakes using Semi-fragile Invisible Image Watermarking [6.246098300155482]
本稿では,メディア認証のために,見えない秘密メッセージを実画像に埋め込む半フレジブルな画像透かし手法を提案する。
提案するフレームワークは,顔の操作や改ざんに対して脆弱であると同時に,画像処理操作や透かし除去攻撃に対して頑健であるように設計されている。
論文 参考訳(メタデータ) (2024-10-02T18:05:03Z) - Robustness of Watermarking on Text-to-Image Diffusion Models [9.277492743469235]
本稿では,透かし埋め込みとテキスト・ツー・イメージ・ジェネレーション処理を統合することで生成する透かしの堅牢性について検討する。
生成型透かし法は, 識別器による攻撃やエッジ予測に基づく攻撃のエッジ情報に基づく操作など, 直接回避攻撃に対して堅牢であるが, 悪意のある微調整には脆弱であることがわかった。
論文 参考訳(メタデータ) (2024-08-04T13:59:09Z) - Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Robustness of AI-Image Detectors: Fundamental Limits and Practical
Attacks [47.04650443491879]
我々は、透かしやディープフェイク検出器を含む様々なAI画像検出器の堅牢性を分析する。
ウォーターマーキング手法は,攻撃者が実際の画像をウォーターマーキングとして識別することを目的としたスプーフ攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2023-09-29T18:30:29Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - FAWA: Fast Adversarial Watermark Attack on Optical Character Recognition
(OCR) Systems [16.730943103571068]
既存のほとんどの敵攻撃によって生成された敵の例は不自然であり、背景を厳しく汚染する。
白箱方式のシーケンスベースOCRモデルに対して,FAWA(Fast Adversarial Watermark Attack)を提案する。
摂動を透かしとして振る舞うことで、人間の目に自然に敵像を見せることができ、完璧な攻撃成功率を達成することができる。
論文 参考訳(メタデータ) (2020-12-15T05:19:54Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。