論文の概要: EditTrack: Detecting and Attributing AI-assisted Image Editing
- arxiv url: http://arxiv.org/abs/2510.01173v1
- Date: Wed, 01 Oct 2025 17:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.711879
- Title: EditTrack: Detecting and Attributing AI-assisted Image Editing
- Title(参考訳): EditTrack: AI支援の画像編集の検出と属性
- Authors: Zhengyuan Jiang, Yuyang Zhang, Moyang Guo, Neil Zhenqiang Gong,
- Abstract要約: ベース画像と疑わしい画像が与えられた場合、AI編集モデルを用いて疑わしい画像がベース画像から導出されたかどうかを検知し、属性は特定の編集モデルに責任があるかを識別する。
この問題に対して、既存のAI生成画像の検出および帰属方法が不十分である。
本稿では,この画像編集検出および属性問題のための最初のフレームワークであるEditTrackを提案する。
- 参考スコア(独自算出の注目度): 46.373058018721736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we formulate and study the problem of image-editing detection and attribution: given a base image and a suspicious image, detection seeks to determine whether the suspicious image was derived from the base image using an AI editing model, while attribution further identifies the specific editing model responsible. Existing methods for detecting and attributing AI-generated images are insufficient for this problem, as they focus on determining whether an image was AI-generated/edited rather than whether it was edited from a particular base image. To bridge this gap, we propose EditTrack, the first framework for this image-editing detection and attribution problem. Building on four key observations about the editing process, EditTrack introduces a novel re-editing strategy and leverages carefully designed similarity metrics to determine whether a suspicious image originates from a base image and, if so, by which model. We evaluate EditTrack on five state-of-the-art editing models across six datasets, demonstrating that it consistently achieves accurate detection and attribution, significantly outperforming five baselines.
- Abstract(参考訳): 本研究では、ベース画像と疑わしい画像が与えられた場合、AI編集モデルを用いて、疑わしい画像がベース画像から導出されたかどうかを判定し、属性をさらに特定する。
既存のAI生成画像の検出および帰属方法は、特定のベースイメージから編集された画像ではなく、画像がAI生成/編集されたものであるかどうかを決定することに重点を置いているため、この問題には不十分である。
このギャップを埋めるために、この画像編集検出および帰属問題の最初のフレームワークであるEditTrackを提案する。
EditTrackは、編集プロセスに関する4つの重要な観察に基づいて、新しい再編集戦略を導入し、不審な画像がベース画像に由来するかどうかを慎重に設計した類似度メトリクスを活用し、そのモデルによって決定する。
6つのデータセットにわたる5つの最先端編集モデル上でEditTrackを評価し、精度の高い検出と属性を一貫して達成し、5つのベースラインを大幅に上回ることを示す。
関連論文リスト
- EditInspector: A Benchmark for Evaluation of Text-Guided Image Edits [22.762414256693265]
テキスト誘導画像編集評価のための新しいベンチマークであるEditInspectorを紹介する。
我々はEditInspectorを利用して、編集評価における最先端(SoTA)ビジョンと言語モデルの性能を評価する。
以上の結果から,現在のモデルでは,編集を包括的かつ頻繁に評価することは困難であることが示唆された。
論文 参考訳(メタデータ) (2025-06-11T17:58:25Z) - GIE-Bench: Towards Grounded Evaluation for Text-Guided Image Editing [60.66800567924348]
テキスト誘導画像編集モデルを評価するための新しいベンチマークを導入する。
このベンチマークには、20種類のコンテンツカテゴリにわたる高品質な編集例が1000以上含まれている。
我々は、GPT-Image-1をいくつかの最先端編集モデルと比較する大規模な研究を行っている。
論文 参考訳(メタデータ) (2025-05-16T17:55:54Z) - ReEdit: Multimodal Exemplar-Based Image Editing with Diffusion Models [11.830273909934688]
最新のテキスト・ツー・イメージ(T2I)拡散モデルでは、高品質な画像を生成することで画像編集に革命をもたらした。
テキストと画像のモダリティの両方で編集をキャプチャする,モジュール的で効率的なエンドツーエンドフレームワークであるReEditを提案する。
以上の結果から,ReEditは定性的かつ定量的に現代的アプローチを一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2024-11-06T15:19:24Z) - Ground-A-Score: Scaling Up the Score Distillation for Multi-Attribute Editing [49.419619882284906]
Ground-A-Scoreは、スコア蒸留時のグラウンド処理を取り入れた強力なモデル非依存画像編集法である。
新しいペナルティ係数とコントラスト損失を持つ選択的応用は、編集領域を正確にターゲットするのに役立つ。
質的評価と定量的分析の両方で、Ground-A-Scoreは拡張および多面的プロンプトの複雑な詳細に順応することを確認した。
論文 参考訳(メタデータ) (2024-03-20T12:40:32Z) - iEdit: Localised Text-guided Image Editing with Weak Supervision [53.082196061014734]
テキスト誘導画像編集のための新しい学習法を提案する。
ソースイメージに条件付けされた画像とテキスト編集プロンプトを生成する。
画像の忠実度、CLIPアライメントスコア、および生成された画像と実際の画像の両方を定性的に編集する点において、画像に対して好ましい結果を示す。
論文 参考訳(メタデータ) (2023-05-10T07:39:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。