論文の概要: Towards Reliable Identification of Diffusion-based Image Manipulations
- arxiv url: http://arxiv.org/abs/2506.05466v2
- Date: Thu, 12 Jun 2025 14:11:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 13:18:14.127655
- Title: Towards Reliable Identification of Diffusion-based Image Manipulations
- Title(参考訳): 拡散に基づく画像操作の信頼性向上に向けて
- Authors: Alex Costanzino, Woody Bayliss, Juil Sock, Marc Gorriz Blanch, Danijela Horak, Ivan Laptev, Philip Torr, Fabio Pizzati,
- Abstract要約: Inpainted AReas(RADAR)のReliAble iDentificationのための新しいアプローチを提案する。
RADARは既存のファンデーションモデルに基づいて構築され、異なる画像モダリティの機能を組み合わせている。
実験の結果,RADARは画像編集の精度を向上し,画像編集の局部化に優れることがわかった。
- 参考スコア(独自算出の注目度): 29.011252426887577
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Changing facial expressions, gestures, or background details may dramatically alter the meaning conveyed by an image. Notably, recent advances in diffusion models greatly improve the quality of image manipulation while also opening the door to misuse. Identifying changes made to authentic images, thus, becomes an important task, constantly challenged by new diffusion-based editing tools. To this end, we propose a novel approach for ReliAble iDentification of inpainted AReas (RADAR). RADAR builds on existing foundation models and combines features from different image modalities. It also incorporates an auxiliary contrastive loss that helps to isolate manipulated image patches. We demonstrate these techniques to significantly improve both the accuracy of our method and its generalisation to a large number of diffusion models. To support realistic evaluation, we further introduce BBC-PAIR, a new comprehensive benchmark, with images tampered by 28 diffusion models. Our experiments show that RADAR achieves excellent results, outperforming the state-of-the-art in detecting and localising image edits made by both seen and unseen diffusion models. Our code, data and models will be publicly available at https://alex-costanzino.github.io/radar/.
- Abstract(参考訳): 表情、ジェスチャー、背景の詳細を変えることは、画像によって伝達される意味を劇的に変える可能性がある。
特に,近年の拡散モデルの進歩により画像操作の質が大幅に向上し,誤用への扉が開きつつある。
そこで,新たな拡散型編集ツールによって常に課題を呈し,画像の正しさを識別する作業が重要な課題となる。
この目的のために, 塗布されたAReas(RADAR)のReliAble iDentificationに対する新しいアプローチを提案する。
RADARは既存のファンデーションモデルに基づいて構築され、異なる画像モダリティの機能を組み合わせている。
また、操作されたイメージパッチを分離するのに役立つ補助的なコントラスト損失も組み込まれている。
本研究では,本手法の精度と多数の拡散モデルへの一般化を両立させるため,これらの手法を実証する。
現実的な評価を支援するため,新しい総合ベンチマークであるBBC-PAIRを導入し,28種類の拡散モデルによる画像の改ざんを行った。
実験の結果,RADARは画像の拡散モデルと未知の拡散モデルの両方による画像編集を検出・位置決めする技術に優れており,優れた結果が得られることがわかった。
私たちのコード、データ、モデルはhttps://alex-costanzino.github.io/radar/.comで公開されます。
関連論文リスト
- JIGMARK: A Black-Box Approach for Enhancing Image Watermarks against Diffusion Model Edits [76.25962336540226]
JIGMARKは、コントラスト学習による堅牢性を高める、第一級の透かし技術である。
本評価の結果,JIGMARKは既存の透かし法をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-06T03:31:41Z) - GANTASTIC: GAN-based Transfer of Interpretable Directions for Disentangled Image Editing in Text-to-Image Diffusion Models [4.710921988115686]
GANTASTICは、事前学習したGANモデルから既存の方向を抽出し、これらの方向を拡散モデルに転送する新しいフレームワークである。
このアプローチは、拡散モデルが知られている生成的品質と多様性を維持するだけでなく、正確なターゲット画像編集を行う能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-28T17:55:16Z) - DragDiffusion: Harnessing Diffusion Models for Interactive Point-based Image Editing [94.24479528298252]
DragGANは、ピクセルレベルの精度で印象的な編集結果を実現する、インタラクティブなポイントベースの画像編集フレームワークである。
大規模な事前学習拡散モデルを利用することで、実画像と拡散画像の両方における対話的点ベース編集の適用性を大幅に向上する。
本稿では,対話的点ベース画像編集手法の性能を評価するため,DragBenchというベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-26T06:04:09Z) - ADIR: Adaptive Diffusion for Image Reconstruction [46.838084286784195]
本研究では,拡散モデルによる事前学習を利用した条件付きサンプリング手法を提案する。
次に、事前学習した拡散分極ネットワークを入力に適応させる新しいアプローチと組み合わせる。
画像再構成手法の適応拡散は,超高解像度,デブロアリング,テキストベースの編集タスクにおいて,大幅な改善が達成されていることを示す。
論文 参考訳(メタデータ) (2022-12-06T18:39:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。