論文の概要: Watermark Anything with Localized Messages
- arxiv url: http://arxiv.org/abs/2411.07231v1
- Date: Mon, 11 Nov 2024 18:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:10:32.733563
- Title: Watermark Anything with Localized Messages
- Title(参考訳): ローカライズされたメッセージによる透かし
- Authors: Tom Sander, Pierre Fernandez, Alain Durmus, Teddy Furon, Matthijs Douze,
- Abstract要約: 我々は、Watermark Anything Model (WAM)と呼ばれる局所画像透かしのためのディープラーニングモデルを導入する。
WAM埋め込み装置は入力画像を不知覚に修正し、抽出器は受信した画像を透かし及び非透かし領域に分割する。
WAMはスプリシング画像中の透かし領域を特定し、複数の小さな領域から1ビット未満の誤差で異なる32ビットメッセージを抽出することができる。
- 参考スコア(独自算出の注目度): 24.123479478427594
- License:
- Abstract: Image watermarking methods are not tailored to handle small watermarked areas. This restricts applications in real-world scenarios where parts of the image may come from different sources or have been edited. We introduce a deep-learning model for localized image watermarking, dubbed the Watermark Anything Model (WAM). The WAM embedder imperceptibly modifies the input image, while the extractor segments the received image into watermarked and non-watermarked areas and recovers one or several hidden messages from the areas found to be watermarked. The models are jointly trained at low resolution and without perceptual constraints, then post-trained for imperceptibility and multiple watermarks. Experiments show that WAM is competitive with state-of-the art methods in terms of imperceptibility and robustness, especially against inpainting and splicing, even on high-resolution images. Moreover, it offers new capabilities: WAM can locate watermarked areas in spliced images and extract distinct 32-bit messages with less than 1 bit error from multiple small regions - no larger than 10% of the image surface - even for small $256\times 256$ images.
- Abstract(参考訳): 画像透かし法は、小さな透かし領域を扱うように調整されていない。
これにより、画像の一部が異なるソースから来たり、編集されたりする現実世界のシナリオでのアプリケーションを制限することができる。
本稿では,Watermark Anything Model (WAM) と呼ばれる,局所的な画像透かしのためのディープラーニングモデルを提案する。
抽出装置は、受信した画像を透かし及び非透かし領域に分割し、透かし検出された領域から1つまたは複数の隠されたメッセージを復元する。
モデルは低解像度で、知覚的制約なしで共同で訓練され、その後、知覚不能と複数の透かしのために後訓練される。
実験により、WAMは、特に高解像度画像上での塗布やスプライシングに対して、非感受性と堅牢性の観点から、最先端の手法と競合していることが示された。
WAMはスプリシングされた画像中の透かしのある領域を見つけ出し、複数の小さな領域から1ビット未満の異なる32ビットメッセージを抽出する。
関連論文リスト
- Image Watermarking of Generative Diffusion Models [42.982489491857145]
拡散モデル自体に透かしの特徴を埋め込む透かし手法を提案する。
本手法は,エンド・ツー・エンド・エンド・プロセスで学習した生成モデルに対して,ペア型透かし抽出器の訓練を可能にする。
高精度な透かし埋め込み/検出を実証し,本手法に埋め込まれた異なる透かしを区別し,生成モデルの区別を行うことが可能であることを示す。
論文 参考訳(メタデータ) (2025-02-12T09:00:48Z) - On the Coexistence and Ensembling of Watermarks [93.15379331904602]
様々なオープンソースの透かしは、画像の品質と復号性に小さな影響しか与えない。
我々は、アンサンブルがメッセージ全体のキャパシティを向上し、基本モデルを再トレーニングすることなく、キャパシティ、正確性、堅牢性、画像品質の新たなトレードオフを可能にすることを示す。
論文 参考訳(メタデータ) (2025-01-29T00:37:06Z) - Invisible Watermarks: Attacks and Robustness [0.3495246564946556]
本稿では,攻撃時の画像品質の劣化を最小限に抑えるとともに,透かしの堅牢性を向上する新しい手法を提案する。
そこで本研究では,デコード中,一方の透かしのモダリティを保ちながら他方を完全に除去する独自の透かし除去ネットワークを提案する。
評価の結果,1)他のモダリティを復号する際の透かしモダリティの1つを保持するための透かし除去モデルの実装は,ベースライン性能において若干改善され,2)LBAは画像全体の均一なぼかしに比べて画像の劣化を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-12-17T03:50:13Z) - Multi-Bit Distortion-Free Watermarking for Large Language Models [4.7381853007029475]
透かしの一部としてメタ情報の複数ビットを埋め込むことにより,既存のゼロビット歪みのない透かし法を拡張した。
また,少ないビット誤り率で透かしから埋め込み情報を抽出する計算効率の良い復号器を開発した。
論文 参考訳(メタデータ) (2024-02-26T14:01:34Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Tree-Ring Watermarks: Fingerprints for Diffusion Images that are
Invisible and Robust [55.91987293510401]
生成モデルのアウトプットを透かしは、著作権をトレースし、AI生成コンテンツによる潜在的な害を防ぐ重要なテクニックである。
本稿では,拡散モデル出力を頑健にフィンガープリントするTree-Ring Watermarkingという新しい手法を提案する。
私たちの透かしは画像空間に意味的に隠れており、現在デプロイされている透かしよりもはるかに堅牢です。
論文 参考訳(メタデータ) (2023-05-31T17:00:31Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Watermarking Images in Self-Supervised Latent Spaces [75.99287942537138]
我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
論文 参考訳(メタデータ) (2021-12-17T15:52:46Z) - Visible Watermark Removal via Self-calibrated Localization and
Background Refinement [21.632823897244037]
画像に透かした透かしを重ねることで、著作権問題に対処する強力な武器を提供する。
現代の透かし除去法は、透かしの局所化と背景復元を同時に行う。
上記の問題に対処する2段階のマルチタスクネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-08T06:43:55Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。