論文の概要: LocateEdit-Bench: A Benchmark for Instruction-Based Editing Localization
- arxiv url: http://arxiv.org/abs/2602.05577v1
- Date: Thu, 05 Feb 2026 12:01:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.915629
- Title: LocateEdit-Bench: A Benchmark for Instruction-Based Editing Localization
- Title(参考訳): LocateEdit-Bench: インストラクションベースの編集ローカライズのためのベンチマーク
- Authors: Shiyu Wu, Shuyan Li, Jing Li, Jing Liu, Yequan Wang,
- Abstract要約: フォージェリローカライゼーション手法をベンチマークするために,231ドルの編集画像からなる大規模データセットを提案する。
データセットには、4つの最先端編集モデルと3つの一般的な編集タイプが組み込まれている。
我々の研究は、画像編集の進化する状況に追従する基盤を確立し、将来の偽のローカライゼーションのための効果的な手法の開発を容易にする。
- 参考スコア(独自算出の注目度): 21.62979058692505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in image editing have enabled highly controllable and semantically-aware alteration of visual content, posing unprecedented challenges to manipulation localization. However, existing AI-generated forgery localization methods primarily focus on inpainting-based manipulations, making them ineffective against the latest instruction-based editing paradigms. To bridge this critical gap, we propose LocateEdit-Bench, a large-scale dataset comprising $231$K edited images, designed specifically to benchmark localization methods against instruction-driven image editing. Our dataset incorporates four cutting-edge editing models and covers three common edit types. We conduct a detailed analysis of the dataset and develop two multi-metric evaluation protocols to assess existing localization methods. Our work establishes a foundation to keep pace with the evolving landscape of image editing, thereby facilitating the development of effective methods for future forgery localization. Dataset will be open-sourced upon acceptance.
- Abstract(参考訳): 画像編集の最近の進歩は、高度に制御可能で意味論的に認識された視覚コンテンツの変更を可能にし、ローカライゼーションを操作するのに前例のない課題を提起している。
しかし、既存のAI生成フォージェリーローカライゼーション手法は、主に塗装ベースの操作に焦点を当てており、最新の命令ベースの編集パラダイムに対して効果がない。
この重要なギャップを埋めるために、我々は231ドルの編集画像からなる大規模データセットであるLocateEdit-Benchを提案し、特に命令駆動画像編集に対するローカライズ手法のベンチマークを目的としている。
データセットには、4つの最先端編集モデルと3つの一般的な編集タイプが組み込まれている。
本稿では,データセットの詳細な解析を行い,既存のローカライゼーション手法を評価するための2つのマルチメトリック評価プロトコルを開発する。
我々の研究は、画像編集の進化する状況に追従する基盤を確立し、将来の偽のローカライゼーションのための効果的な手法の開発を容易にする。
Datasetは受け入れ次第オープンソースになる。
関連論文リスト
- Beyond Editing Pairs: Fine-Grained Instructional Image Editing via Multi-Scale Learnable Regions [20.617718631292696]
我々は、広く利用可能な膨大なテキストイメージ対を利用する命令駆動画像編集のための新しいパラダイムを開発する。
本手法では,編集プロセスのローカライズとガイドを行うために,マルチスケールの学習可能な領域を導入する。
画像とそのテキスト記述のアライメントを監督・学習として扱い,タスク固有の編集領域を生成することにより,高忠実で高精度かつ命令一貫性のある画像編集を実現する。
論文 参考訳(メタデータ) (2025-05-25T22:40:59Z) - PartEdit: Fine-Grained Image Editing using Pre-Trained Diffusion Models [80.98455219375862]
本稿では,事前学習した拡散モデルに基づくオブジェクト部品に対する最初のテキストベースの画像編集手法を提案する。
提案手法は, 利用者の66~90%に好まれる。
論文 参考訳(メタデータ) (2025-02-06T13:08:43Z) - UIP2P: Unsupervised Instruction-based Image Editing via Edit Reversibility Constraint [87.20985852686785]
本研究では,教師なし指導に基づく画像編集手法を提案する。
本稿では,編集可逆性制約 (ERC) と呼ばれる新しい編集機構を導入することで,これらの課題に対処する。
これにより、地道に編集されたイメージの必要性を回避し、実際のイメージキャプチャペアまたはイメージキャプチャインストラクショントリプルからなるデータセットで、初めてトレーニングをアンロックすることが可能になります。
論文 参考訳(メタデータ) (2024-12-19T18:59:58Z) - InstructBrush: Learning Attention-based Instruction Optimization for Image Editing [54.07526261513434]
InstructBrushは命令ベースの画像編集方法の逆変換手法である。
画像ペアから編集命令として編集効果を抽出し、さらに画像編集に適用する。
提案手法は,編集性能に優れ,目的の編集効果とセマンティックに一致している。
論文 参考訳(メタデータ) (2024-03-27T15:03:38Z) - Rethinking Image Editing Detection in the Era of Generative AI
Revolution [13.605053073689751]
GREデータセットは、以下の利点を持つ大規模な生成地域編集データセットである。
提案する3つの課題として,編集画像分類,編集手法属性,編集領域ローカライゼーションの3つの実験を行った。
GREデータセットは、生成領域編集検出の分野におけるさらなる研究と探索を促進することを期待する。
論文 参考訳(メタデータ) (2023-11-29T07:35:35Z) - Object-aware Inversion and Reassembly for Image Editing [61.19822563737121]
オブジェクトレベルのきめ細かい編集を可能にするために,オブジェクト認識型インバージョンと再アセンブリ(OIR)を提案する。
画像の編集時に各編集ペアに対して最適な反転ステップを見つけるために,検索基準を用いる。
本手法は,オブジェクトの形状,色,材料,カテゴリなどの編集において,特に多目的編集シナリオにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-18T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。