論文の概要: SynthID-Image: Image watermarking at internet scale
- arxiv url: http://arxiv.org/abs/2510.09263v1
- Date: Fri, 10 Oct 2025 11:03:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 04:53:46.939195
- Title: SynthID-Image: Image watermarking at internet scale
- Title(参考訳): SynthID-Image: Image watermarking at internet scale
- Authors: Sven Gowal, Rudy Bunel, Florian Stimberg, David Stutz, Guillermo Ortiz-Jimenez, Christina Kouridi, Mel Vecerik, Jamie Hayes, Sylvestre-Alvise Rebuffi, Paul Bernard, Chris Gamble, Miklós Z. Horváth, Fabian Kaczmarczyck, Alex Kaskasoli, Aleksandar Petrov, Ilia Shumailov, Meghana Thotakuri, Olivia Wiles, Jessica Yung, Zahra Ahmed, Victor Martin, Simon Rosen, Christopher Savčak, Armin Senoner, Nidhi Vyas, Pushmeet Kohli,
- Abstract要約: 本稿では,AI生成画像の透かしを行うディープラーニングシステムであるSynthID-Imageを紹介する。
本稿では,このようなシステムをインターネット規模で展開する上での技術的デシラタ,脅威モデル,実践的課題について述べる。
- 参考スコア(独自算出の注目度): 55.5714762895087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce SynthID-Image, a deep learning-based system for invisibly watermarking AI-generated imagery. This paper documents the technical desiderata, threat models, and practical challenges of deploying such a system at internet scale, addressing key requirements of effectiveness, fidelity, robustness, and security. SynthID-Image has been used to watermark over ten billion images and video frames across Google's services and its corresponding verification service is available to trusted testers. For completeness, we present an experimental evaluation of an external model variant, SynthID-O, which is available through partnerships. We benchmark SynthID-O against other post-hoc watermarking methods from the literature, demonstrating state-of-the-art performance in both visual quality and robustness to common image perturbations. While this work centers on visual media, the conclusions on deployment, constraints, and threat modeling generalize to other modalities, including audio. This paper provides a comprehensive documentation for the large-scale deployment of deep learning-based media provenance systems.
- Abstract(参考訳): 本稿では,AI生成画像の透かしを行うディープラーニングシステムであるSynthID-Imageを紹介する。
本稿では,このようなシステムをインターネット規模で展開する上での技術的デシラタ,脅威モデル,実践的課題について述べる。
SynthID-Imageは、Googleのサービス全体で100億以上の画像とビデオフレームを透かし、対応する検証サービスが信頼できるテスタに提供されている。
完全性については、パートナーシップを通じて利用可能な外部モデル変種であるSynthID-Oを実験的に評価する。
文献から得られた他のポストホック透かし手法に対してSynthID-Oをベンチマークし、画像摂動に対する視覚的品質とロバスト性の両方において最先端の性能を示す。
この作業はビジュアルメディアを中心にしているが、デプロイメント、制約、脅威モデリングの結論は、オーディオを含む他のモダリティに一般化される。
本稿では,Deep Learning-based media provenance systemの大規模展開に関する包括的なドキュメンテーションを提供する。
関連論文リスト
- How Well Do Models Follow Visual Instructions? VIBE: A Systematic Benchmark for Visual Instruction-Driven Image Editing [56.60465182650588]
我々は,3段階の相互作用階層を導入し,決定的接地,形態的操作,因果推論を捉える。
本稿では,スケーラブルできめ細かい評価を実現するために,タスク固有のメトリクスを備えた堅牢なLMM-as-a-judge評価フレームワークを提案する。
プロプライエタリなモデルは早期の視覚指示追従能力を示し、一貫してオープンソースモデルを上回っていることがわかった。
論文 参考訳(メタデータ) (2026-02-02T09:24:45Z) - Provenance of AI-Generated Images: A Vector Similarity and Blockchain-based Approach [3.632189127068905]
本稿では,AI生成画像と実(人間による)画像とを識別する組込み型AI画像検出フレームワークを提案する。
提案手法は,AI生成画像が他のAI生成コンテンツに近接していることを示す仮説に基づいている。
以上の結果から,中程度の摂動と高摂動が埋め込みシグネチャに最小限に影響を及ぼすことが確認された。
論文 参考訳(メタデータ) (2025-10-15T00:49:56Z) - OmniDFA: A Unified Framework for Open Set Synthesis Image Detection and Few-Shot Attribution [21.62979058692505]
OmniDFAはAIGIのための新しいフレームワークで、画像の信頼性を評価し、その起源を数ショットで決定する。
OmniFakeは大規模なクラス対応合成画像データセットで、45ドルの異なる生成モデルから117ドルの画像をキュレートする。
実験により、OmniDFAはオープンセット属性に優れた能力を示し、AIGI検出における最先端の一般化性能を達成することが示された。
論文 参考訳(メタデータ) (2025-09-30T02:36:40Z) - BusterX++: Towards Unified Cross-Modal AI-Generated Content Detection and Explanation with MLLM [12.349038994581415]
合成メディアのクロスモーダル検出と説明のための新しいフレームワークである textbfBusterX++ を紹介する。
本手法は,冷間開始を排除した高度強化学習(RL)ポストトレーニング戦略を取り入れたものである。
textbfGenBuster++は、最先端の画像とビデオ生成技術を利用したクロスモーダルなベンチマークである。
論文 参考訳(メタデータ) (2025-07-19T14:05:33Z) - Towards Effective User Attribution for Latent Diffusion Models via Watermark-Informed Blending [54.26862913139299]
我々は、ウォーターマークインフォームドブレンディング(TEAWIB)による潜伏拡散モデルに対する効果的なユーザ属性に向けた新しいフレームワークを提案する。
TEAWIBは、ユーザ固有の透かしを生成モデルにシームレスに統合する、ユニークな準備可能な構成アプローチを取り入れている。
TEAWIBの有効性を検証し、知覚的品質と帰属精度で最先端の性能を示す実験を行った。
論文 参考訳(メタデータ) (2024-09-17T07:52:09Z) - UNIT: Unifying Image and Text Recognition in One Vision Encoder [51.140564856352825]
UNITは、単一のモデル内で画像とテキストの認識を統一することを目的とした、新しいトレーニングフレームワークである。
文書関連タスクにおいて,UNITが既存の手法を著しく上回ることを示す。
注目すべきなのは、UNITはオリジナルのビジョンエンコーダアーキテクチャを保持しており、推論とデプロイメントの点で費用がかからないことだ。
論文 参考訳(メタデータ) (2024-09-06T08:02:43Z) - SIDBench: A Python Framework for Reliably Assessing Synthetic Image Detection Methods [9.213926755375024]
完全合成画像の作成は、ユニークな課題である。
ベンチマークデータセットの実験結果と、ワイルドなメソッドのパフォーマンスの間には、大きなギャップがしばしばあります。
本稿では,いくつかの最先端SIDモデルを統合するベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-29T09:50:16Z) - DeepFeatureX Net: Deep Features eXtractors based Network for discriminating synthetic from real images [6.75641797020186]
ディープラーニングアルゴリズムによって生成された合成画像であるDeepfakesは、Digital Forensicsの分野における最大の課題の1つだ。
ベースモデルと呼ばれる3つのブロックに基づく新しい手法を提案する。
そして、各ブロックから抽出された一般化特徴を処理して、入力画像の起源を判別する。
論文 参考訳(メタデータ) (2024-04-24T07:25:36Z) - WAVES: Benchmarking the Robustness of Image Watermarks [67.955140223443]
WAVES(Watermark Analysis Via Enhanced Stress-testing)は、画像透かしの堅牢性を評価するためのベンチマークである。
我々は,検出タスクと識別タスクを統合し,多様なストレステストからなる標準化された評価プロトコルを確立する。
我々はWAVESを,ロバストな透かしの将来の開発のためのツールキットとして想定する。
論文 参考訳(メタデータ) (2024-01-16T18:58:36Z) - Harnessing Machine Learning for Discerning AI-Generated Synthetic Images [2.6227376966885476]
我々は、AI生成画像と実画像の識別に機械学習技術を用いる。
ResNet、VGGNet、DenseNetといった先進的なディープラーニングアーキテクチャを洗練し、適応しています。
実験結果は重要であり、最適化されたディープラーニングモデルが従来の手法より優れていることを示した。
論文 参考訳(メタデータ) (2024-01-14T20:00:37Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。