論文の概要: Luminark: Training-free, Probabilistically-Certified Watermarking for General Vision Generative Models
- arxiv url: http://arxiv.org/abs/2601.01085v1
- Date: Sat, 03 Jan 2026 06:20:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.019845
- Title: Luminark: Training-free, Probabilistically-Certified Watermarking for General Vision Generative Models
- Title(参考訳): Luminark: 一般ビジョン生成モデルのためのトレーニング不要で確率論的に認定された透かし
- Authors: Jiayi Xu, Zhang Zhang, Yuanrui Zhang, Ruitao Chen, Yixian Xu, Tianyu He, Di He,
- Abstract要約: 一般視覚生成モデルのためのトレーニング不要で確率論的に認証された透かし法であるEmph Luminarkを紹介する。
我々のアプローチはパッチレベルの輝度統計を利用する新しい透かし定義に基づいている。
拡散,自己回帰,ハイブリッドフレームワークにまたがる9つのモデルに対するアプローチを評価する。
- 参考スコア(独自算出の注目度): 18.49780463449297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce \emph{Luminark}, a training-free and probabilistically-certified watermarking method for general vision generative models. Our approach is built upon a novel watermark definition that leverages patch-level luminance statistics. Specifically, the service provider predefines a binary pattern together with corresponding patch-level thresholds. To detect a watermark in a given image, we evaluate whether the luminance of each patch surpasses its threshold and then verify whether the resulting binary pattern aligns with the target one. A simple statistical analysis demonstrates that the false positive rate of the proposed method can be effectively controlled, thereby ensuring certified detection. To enable seamless watermark injection across different paradigms, we leverage the widely adopted guidance technique as a plug-and-play mechanism and develop the \emph{watermark guidance}. This design enables Luminark to achieve generality across state-of-the-art generative models without compromising image quality. Empirically, we evaluate our approach on nine models spanning diffusion, autoregressive, and hybrid frameworks. Across all evaluations, Luminark consistently demonstrates high detection accuracy, strong robustness against common image transformations, and good performance on visual quality.
- Abstract(参考訳): 本稿では,一般視覚生成モデルのためのトレーニング不要で確率論的に認証された透かし法である \emph{Luminark} を紹介する。
我々のアプローチはパッチレベルの輝度統計を利用する新しい透かし定義に基づいている。
具体的には、サービスプロバイダは、対応するパッチレベルのしきい値とともにバイナリパターンを事前定義する。
画像中の透かしを検出するために、各パッチの輝度がその閾値を超えるかどうかを評価し、その結果のバイナリパターンが対象のものと一致しているかを検証する。
簡単な統計的解析により,提案手法の偽陽性率を効果的に制御できることを示す。
異なるパラダイム間でシームレスな透かし注入を可能にするため,プラグアンドプレイ機構として広く採用されている誘導手法を活用し,<emph{watermark guidance} を開発した。
この設計により、Luminarkは画像の品質を損なうことなく、最先端の生成モデルにまたがる一般化を実現することができる。
実験により,拡散,自己回帰,ハイブリッドフレームワークにまたがる9つのモデルに対するアプローチを実証的に評価した。
すべての評価において、Luminarkは、高い検出精度、一般的な画像変換に対する強い堅牢性、視覚的品質の優れた性能を一貫して示している。
関連論文リスト
- X-Mark: Saliency-Guided Robust Dataset Ownership Verification for Medical Imaging [67.85884025186755]
高品質な医用画像データセットは深層学習モデルの訓練には不可欠であるが、その無許可の使用は重大な著作権と倫理的懸念を提起する。
医用画像は、自然画像用に設計された既存のデータセットの所有権検証方法に固有の課題を示す。
胸部X線著作権保護のためのサンプル特異的クリーンラベル透かし法であるX-Markを提案する。
論文 参考訳(メタデータ) (2026-02-10T00:03:43Z) - Evaluating Dataset Watermarking for Fine-tuning Traceability of Customized Diffusion Models: A Comprehensive Benchmark and Removal Approach [40.345992095764736]
本稿では、普遍性、透過性、ロバスト性を含む一般的な脅威モデルと包括的評価フレームワークを紹介する。
実験により、既存の手法は普遍性と透過性において良好に機能し、一般的な画像処理操作に対してある程度の堅牢性を示すことが示された。
さらに, 微調整に影響を及ぼすことなく, データセットの透かしを完全に除去する実用的な透かし除去手法を提案する。
論文 参考訳(メタデータ) (2025-11-24T17:11:00Z) - Towards Robust Red-Green Watermarking for Autoregressive Image Generators [17.784976310663104]
本稿では,自己回帰(AR)画像モデルにおける世代内透かしの利用について検討する。
ARモデルは、視覚トークンのシーケンスを自動回帰予測して画像を生成し、それをピクセルにデコードする。
大規模言語モデルの赤緑色の透かしに着想を得て,次の予測に偏ったトークンレベルの透かし方式を検討した。
類似したトークンを同じ集合に割り当てるために、視覚トークンクラスタリングに依存する2つの新しい透かし手法を提案する。
論文 参考訳(メタデータ) (2025-08-08T19:14:22Z) - DiffMark: Diffusion-based Robust Watermark Against Deepfakes [49.05095089309156]
ディープフェイクは、悪意のある顔操作を通じて、重大なセキュリティとプライバシーの脅威を引き起こす。
既存の透かし法はディープフェイク操作に対して十分な堅牢性を欠いていることが多い。
本稿では拡散モデルに基づく新しいロバストな透かしフレームワークDiffMarkを提案する。
論文 参考訳(メタデータ) (2025-07-02T07:29:33Z) - Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - Gaussian Shading++: Rethinking the Realistic Deployment Challenge of Performance-Lossless Image Watermark for Diffusion Models [66.54457339638004]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,実世界の展開に適した拡散モデル透かし手法を提案する。
Gaussian Shading++はパフォーマンスのロスレス性を維持するだけでなく、ロバスト性の観点からも既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-04-21T11:18:16Z) - Theoretically Grounded Framework for LLM Watermarking: A Distribution-Adaptive Approach [53.32564762183639]
大規模言語モデル(LLM)の透かしのための新しい統一的理論フレームワークを導入する。
本研究の目的は,最悪の偽陽性率(FPR)の制御とテキスト品質の歪みを維持しつつ,検出性能を最大化することである。
モデル非依存と効率性に代えて代理モデルを利用する歪みのない分散適応型透かしアルゴリズム(DAWA)を提案する。
論文 参考訳(メタデータ) (2024-10-03T18:28:10Z) - Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - RAW: A Robust and Agile Plug-and-Play Watermark Framework for AI-Generated Images with Provable Guarantees [33.61946642460661]
本稿ではRAWと呼ばれる堅牢でアジャイルな透かし検出フレームワークを紹介する。
我々は、透かしの存在を検出するために、透かしと共同で訓練された分類器を用いる。
このフレームワークは,透かし画像の誤分類に対する偽陽性率に関する証明可能な保証を提供する。
論文 参考訳(メタデータ) (2024-01-23T22:00:49Z) - WAVES: Benchmarking the Robustness of Image Watermarks [67.955140223443]
WAVES(Watermark Analysis Via Enhanced Stress-testing)は、画像透かしの堅牢性を評価するためのベンチマークである。
我々は,検出タスクと識別タスクを統合し,多様なストレステストからなる標準化された評価プロトコルを確立する。
我々はWAVESを,ロバストな透かしの将来の開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。