論文の概要: Towards Reliable Identification of Diffusion-based Image Manipulations
- arxiv url: http://arxiv.org/abs/2506.05466v1
- Date: Thu, 05 Jun 2025 18:00:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.178805
- Title: Towards Reliable Identification of Diffusion-based Image Manipulations
- Title(参考訳): 拡散に基づく画像操作の信頼性向上に向けて
- Authors: Alex Costanzino, Woody Bayliss, Juil Sock, Marc Gorriz Blanch, Danijela Horak, Ivan Laptev, Philip Torr, Fabio Pizzati,
- Abstract要約: Inpainted AReas(RADAR)のReliAble iDentificationのための新しいアプローチを提案する。
RADARは既存のファンデーションモデルに基づいて構築され、異なる画像モダリティの機能を組み合わせている。
実験の結果,RADARは画像編集の精度を向上し,画像編集の局部化に優れることがわかった。
- 参考スコア(独自算出の注目度): 29.011252426887577
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Changing facial expressions, gestures, or background details may dramatically alter the meaning conveyed by an image. Notably, recent advances in diffusion models greatly improve the quality of image manipulation while also opening the door to misuse. Identifying changes made to authentic images, thus, becomes an important task, constantly challenged by new diffusion-based editing tools. To this end, we propose a novel approach for ReliAble iDentification of inpainted AReas (RADAR). RADAR builds on existing foundation models and combines features from different image modalities. It also incorporates an auxiliary contrastive loss that helps to isolate manipulated image patches. We demonstrate these techniques to significantly improve both the accuracy of our method and its generalisation to a large number of diffusion models. To support realistic evaluation, we further introduce BBC-PAIR, a new comprehensive benchmark, with images tampered by 28 diffusion models. Our experiments show that RADAR achieves excellent results, outperforming the state-of-the-art in detecting and localising image edits made by both seen and unseen diffusion models. Our code, data and models will be publicly available at alex-costanzino.github.io/radar.
- Abstract(参考訳): 表情、ジェスチャー、背景の詳細を変えることは、画像によって伝達される意味を劇的に変える可能性がある。
特に,近年の拡散モデルの進歩により画像操作の質が大幅に向上し,誤用への扉が開きつつある。
そこで,新たな拡散型編集ツールによって常に課題を呈し,画像の正しさを識別する作業が重要な課題となる。
この目的のために, 塗布されたAReas(RADAR)のReliAble iDentificationに対する新しいアプローチを提案する。
RADARは既存のファンデーションモデルに基づいて構築され、異なる画像モダリティの機能を組み合わせている。
また、操作されたイメージパッチを分離するのに役立つ補助的なコントラスト損失も組み込まれている。
本研究では,本手法の精度と多数の拡散モデルへの一般化を両立させるため,これらの手法を実証する。
現実的な評価を支援するため,新しい総合ベンチマークであるBBC-PAIRを導入し,28種類の拡散モデルによる画像の改ざんを行った。
実験の結果,RADARは画像の拡散モデルと未知の拡散モデルの両方による画像編集を検出・位置決めする技術に優れており,優れた結果が得られることがわかった。
コード、データ、モデルはAlex-costanzino.github.io/radar.comで公開されます。
関連論文リスト
- JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - GANTASTIC: GAN-based Transfer of Interpretable Directions for Disentangled Image Editing in Text-to-Image Diffusion Models [4.710921988115686]
GANTASTICは、事前学習したGANモデルから既存の方向を抽出し、これらの方向を拡散モデルに転送する新しいフレームワークである。
このアプローチは、拡散モデルが知られている生成的品質と多様性を維持するだけでなく、正確なターゲット画像編集を行う能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-28T17:55:16Z) - Denoising Autoregressive Representation Learning [13.185567468951628]
DARLはデコーダのみのトランスフォーマーを用いて,画像パッチの自動回帰予測を行う。
提案手法では, 適応型ノイズスケジュールを用いて学習表現を改良し, より大規模なモデルでより長い訓練を行えることを示す。
論文 参考訳(メタデータ) (2024-03-08T10:19:00Z) - Contrastive Denoising Score for Text-guided Latent Diffusion Image Editing [58.48890547818074]
潜在拡散モデル(LDM)に対するコントラストデノナイジングスコア(CUT)の強力な修正を提案する。
提案手法により,ゼロショット画像から画像への変換とニューラルフィールド(NeRF)の編集が可能となり,入力と出力の間の構造的対応が達成される。
論文 参考訳(メタデータ) (2023-11-30T15:06:10Z) - DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing [94.24479528298252]
DragGANは、ピクセルレベルの精度で印象的な編集結果を実現する、インタラクティブなポイントベースの画像編集フレームワークである。
大規模な事前学習拡散モデルを利用することで、実画像と拡散画像の両方における対話的点ベース編集の適用性を大幅に向上する。
本稿では,対話的点ベース画像編集手法の性能を評価するため,DragBenchというベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-26T06:04:09Z) - DIRE for Diffusion-Generated Image Detection [128.95822613047298]
拡散再構成誤り(DIRE)という新しい表現を提案する。
DIREは、予め訓練された拡散モデルにより、入力画像とその再構成画像間の誤差を測定する。
DIREは生成されたイメージと実際のイメージを区別するためのブリッジとして機能する、というヒントを提供する。
論文 参考訳(メタデータ) (2023-03-16T13:15:03Z) - Uncovering the Disentanglement Capability in Text-to-Image Diffusion
Models [60.63556257324894]
画像生成モデルの重要な特性は、異なる属性をアンタングルする能力である。
本稿では,2つのテキスト埋め込みの混合重みをスタイルマッチングとコンテンツ保存に最適化した,シンプルで軽量な画像編集アルゴリズムを提案する。
実験により,提案手法は拡散モデルに基づく画像編集アルゴリズムよりも優れた性能で,幅広い属性を修正可能であることが示された。
論文 参考訳(メタデータ) (2022-12-16T19:58:52Z) - ADIR: Adaptive Diffusion for Image Reconstruction [46.838084286784195]
本研究では,拡散モデルによる事前学習を利用した条件付きサンプリング手法を提案する。
次に、事前学習した拡散分極ネットワークを入力に適応させる新しいアプローチと組み合わせる。
画像再構成手法の適応拡散は,超高解像度,デブロアリング,テキストベースの編集タスクにおいて,大幅な改善が達成されていることを示す。
論文 参考訳(メタデータ) (2022-12-06T18:39:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。