論文の概要: Watermarking Images in Self-Supervised Latent Spaces
- arxiv url: http://arxiv.org/abs/2112.09581v1
- Date: Fri, 17 Dec 2021 15:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 18:05:24.449474
- Title: Watermarking Images in Self-Supervised Latent Spaces
- Title(参考訳): 自己監督型潜在空間における透かし画像
- Authors: Pierre Fernandez, Alexandre Sablayrolles, Teddy Furon, Herv\'e
J\'egou, Matthijs Douze
- Abstract要約: 我々は,自己教師型アプローチに照らして,事前学習した深層ネットワークに基づく透かし手法を再検討する。
我々は、マーク時間におけるデータの増大を利用して、マークとバイナリのメッセージをその潜在空間に埋め込む方法を提案する。
- 参考スコア(独自算出の注目度): 75.99287942537138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We revisit watermarking techniques based on pre-trained deep networks, in the
light of self-supervised approaches. We present a way to embed both marks and
binary messages into their latent spaces, leveraging data augmentation at
marking time. Our method can operate at any resolution and creates watermarks
robust to a broad range of transformations (rotations, crops, JPEG, contrast,
etc). It significantly outperforms the previous zero-bit methods, and its
performance on multi-bit watermarking is on par with state-of-the-art
encoder-decoder architectures trained end-to-end for watermarking. Our
implementation and models will be made publicly available.
- Abstract(参考訳): 我々は,事前学習した深層ネットワークに基づく透かし手法を,自己教師付きアプローチに照らして再検討する。
我々はマークとバイナリメッセージの両方を潜在空間に埋め込む方法を提案し、マーキング時にデータ拡張を利用する。
提案手法は任意の解像度で動作可能で,幅広い変換(ローテーション,作物,JPEG,コントラストなど)に対して堅牢な透かしを生成する。
従来のゼロビット法よりも大幅に優れており、マルチビット透かしの性能は最先端のエンコーダデコーダアーキテクチャと同等である。
我々の実装とモデルは公開される予定だ。
関連論文リスト
- Certifiably Robust Image Watermark [57.546016845801134]
ジェネレーティブAIは、偽情報やプロパガンダキャンペーンの促進など、多くの社会的懸念を提起する。
ウォーターマークAI生成コンテンツは、これらの懸念に対処するための重要な技術である。
本報告では, 除去・偽造攻撃に対するロバスト性保証を保証した最初の画像透かしを提案する。
論文 参考訳(メタデータ) (2024-07-04T17:56:04Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - Robust Image Watermarking based on Cross-Attention and Invariant Domain
Learning [1.6589012298747952]
本稿では,クロスアテンションと不変領域学習を利用して,ロバストな画像透かし手法を提案する。
マルチヘッドクロスアテンション機構を用いた透かし埋め込み方式を設計し,表紙画像と透かしとの情報交換を可能にする。
第2に,透かしに関する意味的情報と雑音的不変情報の両方をカプセル化した不変領域表現の学習を提唱する。
論文 参考訳(メタデータ) (2023-10-09T04:19:27Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - WMFormer++: Nested Transformer for Visible Watermark Removal via Implict
Joint Learning [68.00975867932331]
既存の透かし除去法は主にタスク固有のデコーダブランチを持つUNetに依存している。
両分野の情報を包括的に統合するために,暗黙的な共同学習パラダイムを導入する。
その結果、既存の最先端手法をはるかに上回る、我々のアプローチの顕著な優位性を示した。
論文 参考訳(メタデータ) (2023-08-20T07:56:34Z) - ReMark: Receptive Field based Spatial WaterMark Embedding Optimization
using Deep Network [23.357707056321534]
難解な透かしを埋め込むための新しいディープラーニングアーキテクチャについて検討する。
提案手法は, 衝突歪みを含む透かしの一般的な歪みに対して頑健である。
論文 参考訳(メタデータ) (2023-05-11T13:21:29Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Robust Watermarking using Diffusion of Logo into Autoencoder Feature
Maps [10.072876983072113]
本稿では,透かしのためのエンドツーエンドネットワークを提案する。
画像の内容に基づいて,畳み込みニューラルネットワーク(CNN)を用いて埋め込み強度を制御する。
異なる画像処理攻撃は、モデルの堅牢性を改善するためにネットワーク層としてシミュレートされる。
論文 参考訳(メタデータ) (2021-05-24T05:18:33Z) - Split then Refine: Stacked Attention-guided ResUNets for Blind Single
Image Visible Watermark Removal [69.92767260794628]
従来の透かし除去方法は,ユーザから透かしの位置を取得したり,マルチタスクネットワークをトレーニングして,背景を無差別に復元する必要があった。
本稿では,注目誘導型ResUNetsを積み重ねた新しい2段階フレームワークを提案し,検出・除去・精錬の過程をシミュレートする。
様々な条件下で4つの異なるデータセット上でアルゴリズムを広範囲に評価し,その手法が他の最先端手法をはるかに上回っていることを示す実験を行った。
論文 参考訳(メタデータ) (2020-12-13T09:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。