論文の概要: Watermark Anything with Localized Messages
- arxiv url: http://arxiv.org/abs/2411.07231v1
- Date: Mon, 11 Nov 2024 18:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:10:32.733563
- Title: Watermark Anything with Localized Messages
- Title(参考訳): ローカライズされたメッセージによる透かし
- Authors: Tom Sander, Pierre Fernandez, Alain Durmus, Teddy Furon, Matthijs Douze,
- Abstract要約: 我々は、Watermark Anything Model (WAM)と呼ばれる局所画像透かしのためのディープラーニングモデルを導入する。
WAM埋め込み装置は入力画像を不知覚に修正し、抽出器は受信した画像を透かし及び非透かし領域に分割する。
WAMはスプリシング画像中の透かし領域を特定し、複数の小さな領域から1ビット未満の誤差で異なる32ビットメッセージを抽出することができる。
- 参考スコア(独自算出の注目度): 24.123479478427594
- License:
- Abstract: Image watermarking methods are not tailored to handle small watermarked areas. This restricts applications in real-world scenarios where parts of the image may come from different sources or have been edited. We introduce a deep-learning model for localized image watermarking, dubbed the Watermark Anything Model (WAM). The WAM embedder imperceptibly modifies the input image, while the extractor segments the received image into watermarked and non-watermarked areas and recovers one or several hidden messages from the areas found to be watermarked. The models are jointly trained at low resolution and without perceptual constraints, then post-trained for imperceptibility and multiple watermarks. Experiments show that WAM is competitive with state-of-the art methods in terms of imperceptibility and robustness, especially against inpainting and splicing, even on high-resolution images. Moreover, it offers new capabilities: WAM can locate watermarked areas in spliced images and extract distinct 32-bit messages with less than 1 bit error from multiple small regions - no larger than 10% of the image surface - even for small $256\times 256$ images.
- Abstract(参考訳): 画像透かし法は、小さな透かし領域を扱うように調整されていない。
これにより、画像の一部が異なるソースから来たり、編集されたりする現実世界のシナリオでのアプリケーションを制限することができる。
本稿では,Watermark Anything Model (WAM) と呼ばれる,局所的な画像透かしのためのディープラーニングモデルを提案する。
抽出装置は、受信した画像を透かし及び非透かし領域に分割し、透かし検出された領域から1つまたは複数の隠されたメッセージを復元する。
モデルは低解像度で、知覚的制約なしで共同で訓練され、その後、知覚不能と複数の透かしのために後訓練される。
実験により、WAMは、特に高解像度画像上での塗布やスプライシングに対して、非感受性と堅牢性の観点から、最先端の手法と競合していることが示された。
WAMはスプリシングされた画像中の透かしのある領域を見つけ出し、複数の小さな領域から1ビット未満の異なる32ビットメッセージを抽出する。
関連論文リスト
- Efficiently Identifying Watermarked Segments in Mixed-Source Texts [35.437251393372954]
部分透かし検出のための2つの新しい手法を提案する。
まず,長文に透かしセグメントが存在するかどうかを判定するための幾何被覆検出フレームワークを開発する。
第2に,テキスト内の透かしセグメントの正確な位置を特定できる適応型オンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T16:58:41Z) - Multi-Bit Distortion-Free Watermarking for Large Language Models [4.7381853007029475]
透かしの一部としてメタ情報の複数ビットを埋め込むことにより,既存のゼロビット歪みのない透かし法を拡張した。
また,少ないビット誤り率で透かしから埋め込み情報を抽出する計算効率の良い復号器を開発した。
論文 参考訳(メタデータ) (2024-02-26T14:01:34Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z) - Visible Watermark Removal via Self-calibrated Localization and
Background Refinement [21.632823897244037]
画像に透かした透かしを重ねることで、著作権問題に対処する強力な武器を提供する。
現代の透かし除去法は、透かしの局所化と背景復元を同時に行う。
上記の問題に対処する2段階のマルチタスクネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-08T06:43:55Z) - Watermark Faker: Towards Forgery of Digital Image Watermarking [10.14145437847397]
我々は, 生成的逆学習を用いて, デジタル画像ウォーターマーク・フェイカーの開発を初めて試みる。
提案手法は,空間領域と周波数領域の両方において,デジタル画像透かしを効果的にクラックできることを示す。
論文 参考訳(メタデータ) (2021-03-23T12:28:00Z) - WDNet: Watermark-Decomposition Network for Visible Watermark Removal [61.14614115654322]
透かしのサイズ、形状、色、透明さの不確かさは、画像から画像への翻訳技術にとって大きな障壁となった。
従来の透かし画像分解を2段発電機(WDNet(Watermark-Decomposition Network))に組み合わせます。
分解製剤は、WDNetが単に削除するのではなく、画像から透かしを分離することができます。
論文 参考訳(メタデータ) (2020-12-14T15:07:35Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。