論文の概要: Universal Defensive Underpainting Patch: Making Your Text Invisible to
Optical Character Recognition
- arxiv url: http://arxiv.org/abs/2308.02369v1
- Date: Fri, 4 Aug 2023 15:07:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-07 12:32:53.161959
- Title: Universal Defensive Underpainting Patch: Making Your Text Invisible to
Optical Character Recognition
- Title(参考訳): universal defense underpainting patch: テキストを光学的文字認識に見えないものに
- Authors: JiaCheng Deng, Li Dong, Jiahao Chen, Diqun Yan, Rangding Wang, Dengpan
Ye, Lingchen Zhao, and Jinyu Tian
- Abstract要約: 光文字認識(OCR)は、スキャンまたはデジタル化されたテキスト画像から自動的にテキストを抽出する。
テキスト画像中の文字を歪ませることによるOCR海賊行為の防止方法は現実のシナリオでは不可能である。
我々は、UDUP(Universal Defensive Underpainting Patch)と呼ばれる新しい効果的な防御機構を提案する。
- 参考スコア(独自算出の注目度): 21.79321140125342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical Character Recognition (OCR) enables automatic text extraction from
scanned or digitized text images, but it also makes it easy to pirate valuable
or sensitive text from these images. Previous methods to prevent OCR piracy by
distorting characters in text images are impractical in real-world scenarios,
as pirates can capture arbitrary portions of the text images, rendering the
defenses ineffective. In this work, we propose a novel and effective defense
mechanism termed the Universal Defensive Underpainting Patch (UDUP) that
modifies the underpainting of text images instead of the characters. UDUP is
created through an iterative optimization process to craft a small, fixed-size
defensive patch that can generate non-overlapping underpainting for text images
of any size. Experimental results show that UDUP effectively defends against
unauthorized OCR under the setting of any screenshot range or complex image
background. It is agnostic to the content, size, colors, and languages of
characters, and is robust to typical image operations such as scaling and
compressing. In addition, the transferability of UDUP is demonstrated by
evading several off-the-shelf OCRs. The code is available at
https://github.com/QRICKDD/UDUP.
- Abstract(参考訳): 光文字認識(ocr)は、スキャンまたはデジタル化されたテキスト画像からのテキストの自動抽出を可能にするが、これらの画像から貴重なテキストやセンシティブなテキストを海賊化するのも容易である。
テキスト画像中の文字を歪ませることによるocr海賊行為を防止する以前の方法は、海賊がテキスト画像の任意の部分をキャプチャできるため、実際のシナリオでは実用的ではない。
本研究では,文字の代わりにテキスト画像のアンダーペインティングを変更するUDUP(Universal Defensive Underpainting Patch)と呼ばれる,新規で効果的な防御機構を提案する。
UDUPは、任意のサイズのテキスト画像に対して重複しないアンダーペイントを生成する小さな、固定サイズの防御パッチを作成するために、反復的な最適化プロセスによって作成される。
実験の結果,UDUPはスクリーンショット範囲や複雑な画像背景の設定下において,不正なOCRを効果的に防御することがわかった。
文字の内容、サイズ、色、言語には依存せず、スケーリングや圧縮といった典型的な画像操作に対して堅牢である。
さらに、UDUPの転送性は、市販のOCRを回避して示される。
コードはhttps://github.com/QRICKDD/UDUPで公開されている。
関連論文リスト
- Decoder Pre-Training with only Text for Scene Text Recognition [54.93037783663204]
シーンテキスト認識(STR)事前学習法は,主に合成データセットに依存し,顕著な進歩を遂げている。
STR(DPTR)用テキストのみを用いたDecoder Pre-trainingという新しい手法を提案する。
DPTRはCLIPテキストエンコーダが生成したテキスト埋め込みを擬似視覚埋め込みとして扱い、デコーダの事前訓練に使用する。
論文 参考訳(メタデータ) (2024-08-11T06:36:42Z) - Text in the Dark: Extremely Low-Light Text Image Enhancement [20.631833980353704]
低照度テキスト画像は自然の場面で一般的であり、シーンテキストの検出と認識が困難である。
強調中のシーンテキスト領域に注目するエッジ対応アテンションモジュールを備えた新しいエンコーダデコーダフレームワークを提案する。
提案手法は,新しいテキスト検出とエッジ再構成の損失を利用して,低レベルなシーンテキストの特徴を強調し,テキスト抽出に成功した。
論文 参考訳(メタデータ) (2024-04-22T12:39:12Z) - Perceptual Image Compression with Cooperative Cross-Modal Side
Information [53.356714177243745]
本稿では,テキスト誘導側情報を用いた新しい深層画像圧縮手法を提案する。
具体的には,CLIPテキストエンコーダとSemantic-Spatial Awareブロックを用いてテキストと画像の特徴を融合する。
論文 参考訳(メタデータ) (2023-11-23T08:31:11Z) - iEdit: Localised Text-guided Image Editing with Weak Supervision [53.082196061014734]
テキスト誘導画像編集のための新しい学習法を提案する。
ソースイメージに条件付けされた画像とテキスト編集プロンプトを生成する。
画像の忠実度、CLIPアライメントスコア、および生成された画像と実際の画像の両方を定性的に編集する点において、画像に対して好ましい結果を示す。
論文 参考訳(メタデータ) (2023-05-10T07:39:14Z) - Self-supervised Character-to-Character Distillation for Text Recognition [54.12490492265583]
そこで本研究では,テキスト表現学習を容易にする汎用的な拡張を可能にする,自己教師型文字-文字-文字間蒸留法CCDを提案する。
CCDは、テキスト認識の1.38%、テキストセグメンテーションの1.7%、PSNRの0.24dB、超解像の0.0321(SSIM)で、最先端の結果を達成する。
論文 参考訳(メタデータ) (2022-11-01T05:48:18Z) - Scene Text Image Super-Resolution via Content Perceptual Loss and
Criss-Cross Transformer Blocks [48.81850740907517]
テキスト対応のテキスト・スーパー・リゾリューション・フレームワークであるTATSRについて述べる。
Criss-Cross Transformer Blocks (CCTBs) と新しい Content Perceptual (CP) Loss を用いて、ユニークなテキスト特性を効果的に学習する。
認識精度と人間の知覚の両方の観点から、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-10-13T11:48:45Z) - FlexIT: Towards Flexible Semantic Image Translation [59.09398209706869]
我々は,任意の入力画像とユーザが定義したテキストを編集するための新しい方法であるFlexITを提案する。
まず、FlexITは入力画像とテキストをCLIPマルチモーダル埋め込み空間内の単一のターゲットポイントに結合する。
我々は、入力画像を目標点に向けて反復的に変換し、新しい正規化用語で一貫性と品質を確保する。
論文 参考訳(メタデータ) (2022-03-09T13:34:38Z) - Image preprocessing and modified adaptive thresholding for improving OCR [0.0]
本稿では,テキスト内の画素強度を最大化し,それに応じて画像のしきい値を設定する手法を提案する。
得られた結果から,OCRの画像処理分野において,このアルゴリズムを効率的に適用できることが分かる。
論文 参考訳(メタデータ) (2021-11-28T08:13:20Z) - Confronting the Constraints for Optical Character Segmentation from
Printed Bangla Text Image [0.0]
光文字認識システムは基本的に、印刷された画像を編集可能なテキストに変換し、ストレージとユーザビリティを向上させる。
完全に機能するためには、システムは事前処理やセグメンテーションといったいくつかの重要な方法を通る必要がある。
提案アルゴリズムは,スキャン画像やキャプチャ画像の理想ケースと非理想ケースの両方からキャラクタを分割することができる。
論文 参考訳(メタデータ) (2020-03-18T17:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。