論文の概要: Npix2Cpix: A GAN-based Image-to-Image Translation Network with Retrieval-Classification Integration for Watermark Retrieval from Historical Document Images
- arxiv url: http://arxiv.org/abs/2406.03556v1
- Date: Wed, 5 Jun 2024 18:10:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 19:14:47.944000
- Title: Npix2Cpix: A GAN-based Image-to-Image Translation Network with Retrieval-Classification Integration for Watermark Retrieval from Historical Document Images
- Title(参考訳): Npix2Cpix: 歴史的文書画像からの透かし検索のための検索分類統合を備えたGANベースの画像変換ネットワーク
- Authors: Utsab Saha, Sawradip Saha, Shaikh Anowarul Fattah, Mohammad Saquib,
- Abstract要約: 古代の透かしの識別と復元は、長い間、コーディコロジーと歴史の主要なトピックであった。
本稿では,U-net をベースとした条件付き逆数生成ネットワーク (GAN) を提案する。
- 参考スコア(独自算出の注目度): 1.3549498237473223
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The identification and restoration of ancient watermarks have long been a major topic in codicology and history. Classifying historical documents based on watermarks can be difficult due to the diversity of watermarks, crowded and noisy samples, multiple modes of representation, and minor distinctions between classes and intra-class changes. This paper proposes a U-net-based conditional generative adversarial network (GAN) to translate noisy raw historical watermarked images into clean, handwriting-free images with just watermarks. Considering its ability to perform image translation from degraded (noisy) pixels to clean pixels, the proposed network is termed as Npix2Cpix. Instead of employing directly degraded watermarked images, the proposed network uses image-to-image translation using adversarial learning to create clutter and handwriting-free images for restoring and categorizing the watermarks for the first time. In order to learn the mapping from input noisy image to output clean image, the generator and discriminator of the proposed U-net-based GAN are trained using two separate loss functions, each of which is based on the distance between images. After using the proposed GAN to pre-process noisy watermarked images, Siamese-based one-shot learning is used to classify watermarks. According to experimental results on a large-scale historical watermark dataset, extracting watermarks from tainted images can result in high one-shot classification accuracy. The qualitative and quantitative evaluation of the retrieved watermarks illustrates the effectiveness of the proposed approach.
- Abstract(参考訳): 古代の透かしの識別と復元は、長い間、コーディコロジーと歴史の主要なトピックであった。
透かしに基づく歴史文書の分類は、透かしの多様性、混み合った、騒々しいサンプル、複数の表現のモード、クラスとクラス内の変化の微妙な区別のために困難である。
本稿では,U-net をベースとした条件付き逆数生成ネットワーク (GAN) を提案する。
劣化した(ノイズの多い)ピクセルからクリーンなピクセルへの画像変換を行う能力を考えると、提案するネットワークはNpix2Cpixと呼ばれる。
提案ネットワークでは,直接劣化した透かし画像を利用する代わりに,逆算学習を用いて画像から画像への変換を用いて,透かしの復元と分類を行う。
入力ノイズ画像からクリーンな画像を出力するマッピングを学習するために、提案したU-netベースのGANのジェネレータと判別器を、画像間の距離に基づいて2つの別々の損失関数を用いて訓練する。
提案したGANをノイズの多い透かし画像の前処理に使用した後、シームズをベースとしたワンショット学習を用いて透かしを分類する。
大規模な歴史的透かしデータセットの実験結果によると、汚染画像から透かしを抽出すると、高いワンショット分類精度が得られる。
得られた透かしの質的,定量的評価は,提案手法の有効性を示すものである。
関連論文リスト
- Image Watermarks are Removable Using Controllable Regeneration from Clean Noise [26.09012436917272]
透かし技法の重要な特徴は、様々な操作に対する頑丈さである。
アート透かし技術の現状を効果的に無効化できる透かし除去手法を提案する。
論文 参考訳(メタデータ) (2024-10-07T20:04:29Z) - Efficiently Identifying Watermarked Segments in Mixed-Source Texts [35.437251393372954]
部分透かし検出のための2つの新しい手法を提案する。
まず,長文に透かしセグメントが存在するかどうかを判定するための幾何被覆検出フレームワークを開発する。
第2に,テキスト内の透かしセグメントの正確な位置を特定できる適応型オンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T16:58:41Z) - A self-supervised CNN for image watermark removal [102.94929746450902]
画像透かし除去(SWCNN)における自己教師型畳み込みニューラルネットワーク(CNN)を提案する。
SWCNNは、透かし分布に従って、ペアのトレーニングサンプルではなく、基準透かし画像を構築するために、自己教師付き方式を使用している。
テクスチャ情報を考慮すると、画像透かし除去の視覚効果を改善するために混合損失を利用する。
論文 参考訳(メタデータ) (2024-03-09T05:59:48Z) - Perceptive self-supervised learning network for noisy image watermark
removal [59.440951785128995]
雑音の多い画像透かし除去のための知覚的自己教師型学習ネットワーク(PSLNet)を提案する。
提案手法は,雑音の多い画像透かし除去のための一般的な畳み込みニューラルネットワーク(CNN)と比較して非常に効果的である。
論文 参考訳(メタデータ) (2024-03-04T16:59:43Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Removing Interference and Recovering Content Imaginatively for Visible
Watermark Removal [63.576748565274706]
本研究では,Removing Interference and Recovering Content Imaginatively (RIRCI)フレームワークについて紹介する。
RIRCIは2段階のアプローチを具現化しており、最初のフェーズは透かし成分の識別と分離に焦点を当て、次のフェーズは背景コンテンツの復元に焦点を当てている。
本モデルでは,半透明透かしの下の固有背景情報を完全に探索できるデュアルパスネットワークを用いる。
論文 参考訳(メタデータ) (2023-12-22T02:19:23Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Visible Watermark Removal via Self-calibrated Localization and
Background Refinement [21.632823897244037]
画像に透かした透かしを重ねることで、著作権問題に対処する強力な武器を提供する。
現代の透かし除去法は、透かしの局所化と背景復元を同時に行う。
上記の問題に対処する2段階のマルチタスクネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-08T06:43:55Z) - WDNet: Watermark-Decomposition Network for Visible Watermark Removal [61.14614115654322]
透かしのサイズ、形状、色、透明さの不確かさは、画像から画像への翻訳技術にとって大きな障壁となった。
従来の透かし画像分解を2段発電機(WDNet(Watermark-Decomposition Network))に組み合わせます。
分解製剤は、WDNetが単に削除するのではなく、画像から透かしを分離することができます。
論文 参考訳(メタデータ) (2020-12-14T15:07:35Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。