論文の概要: A Large-scale AI-generated Image Inpainting Benchmark
- arxiv url: http://arxiv.org/abs/2502.06593v1
- Date: Mon, 10 Feb 2025 15:56:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:31:32.500935
- Title: A Large-scale AI-generated Image Inpainting Benchmark
- Title(参考訳): 大規模AI生成画像のベンチマーク
- Authors: Paschalis Giakoumoglou, Dimitrios Karageorgiou, Symeon Papadopoulos, Panagiotis C. Petrantonakis,
- Abstract要約: 本稿では,高品質な塗り絵データセットの作成手法を提案し,それをDiQuID作成に適用する。
DiQuIDは、MS-COCO、RAISE、OpenImagesから78,000個のオリジナル画像から生成された95,000枚のインペイント画像で構成されている。
我々は、最先端の偽造検出手法を用いて包括的なベンチマーク結果を提供し、検出アルゴリズムの評価と改善におけるデータセットの有効性を実証する。
- 参考スコア(独自算出の注目度): 11.216906046169683
- License:
- Abstract: Recent advances in generative models enable highly realistic image manipulations, creating an urgent need for robust forgery detection methods. Current datasets for training and evaluating these methods are limited in scale and diversity. To address this, we propose a methodology for creating high-quality inpainting datasets and apply it to create DiQuID, comprising over 95,000 inpainted images generated from 78,000 original images sourced from MS-COCO, RAISE, and OpenImages. Our methodology consists of three components: (1) Semantically Aligned Object Replacement (SAOR) that identifies suitable objects through instance segmentation and generates contextually appropriate prompts, (2) Multiple Model Image Inpainting (MMII) that employs various state-of-the-art inpainting pipelines primarily based on diffusion models to create diverse manipulations, and (3) Uncertainty-Guided Deceptiveness Assessment (UGDA) that evaluates image realism through comparative analysis with originals. The resulting dataset surpasses existing ones in diversity, aesthetic quality, and technical quality. We provide comprehensive benchmarking results using state-of-the-art forgery detection methods, demonstrating the dataset's effectiveness in evaluating and improving detection algorithms. Through a human study with 42 participants on 1,000 images, we show that while humans struggle with images classified as deceiving by our methodology, models trained on our dataset maintain high performance on these challenging cases. Code and dataset are available at https://github.com/mever-team/DiQuID.
- Abstract(参考訳): 生成モデルの最近の進歩は、非常に現実的な画像操作を可能にし、堅牢な偽造検出方法の緊急な必要性を生み出している。
これらの手法を訓練し評価するための現在のデータセットは、スケールと多様性に制限されている。
そこで本研究では,MS-COCO,RAISE,OpenImagesから出力された78,000枚のオリジナル画像から95,000枚以上のインペイント画像を生成し,高品質なインペイントデータセットを作成する手法を提案する。
提案手法は3つのコンポーネントから構成される:(1)適切なオブジェクトをインスタンスセグメンテーションにより識別し、文脈的に適切なプロンプトを生成するSAOR(Semantically Aligned Object Replacement)、(2)様々な操作を生成する拡散モデルに基づく様々な最先端のインペイントパイプラインを利用するMMII(Multiple Model Image Inpainting)、(3)原文との比較分析により画像リアリズムを評価する不確実性誘導認知度評価(Uncertty-Guided Deceptiveness Assessment, UGDA)。
得られたデータセットは、多様性、美的品質、技術的品質において既存のデータセットを上回る。
我々は、最先端の偽造検出手法を用いて包括的なベンチマーク結果を提供し、検出アルゴリズムの評価と改善におけるデータセットの有効性を実証する。
1000枚の画像に42人の参加者を乗せた人間による研究では、人間は我々の手法によって判断されるイメージに苦しむ一方で、我々のデータセットで訓練されたモデルは、これらの困難なケースで高いパフォーマンスを維持している。
コードとデータセットはhttps://github.com/mever-team/DiQuID.comで入手できる。
関連論文リスト
- RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Enhance Image Classification via Inter-Class Image Mixup with Diffusion Model [80.61157097223058]
画像分類性能を高めるための一般的な戦略は、T2Iモデルによって生成された合成画像でトレーニングセットを増強することである。
本研究では,既存のデータ拡張技術の欠点について検討する。
Diff-Mixと呼ばれる革新的なクラス間データ拡張手法を導入する。
論文 参考訳(メタデータ) (2024-03-28T17:23:45Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z) - Randomize to Generalize: Domain Randomization for Runway FOD Detection [1.4249472316161877]
細い物体検出は、小型化、低解像度化、オクルージョン化、背景クラッタ、照明条件、被写体対画像比の小さいため困難である。
本稿では,SRIA(Synthetic Image Augmentation)の新たな2段階手法を提案する。
検出精度は初期41%からOODテストセットの92%に改善した。
論文 参考訳(メタデータ) (2023-09-23T05:02:31Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Level Up the Deepfake Detection: a Method to Effectively Discriminate
Images Generated by GAN Architectures and Diffusion Models [0.0]
プリズム画像と偽画像の専用データセットを収集し,ディープフェイク検出・認識タスクについて検討した。
3つの異なるディープフェイク検出および認識タスクを解決するために階層的マルチレベルアプローチが導入された。
実験の結果, いずれの場合も, 97%以上の分類精度が, 最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-01T16:01:46Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Holistic Image Manipulation Detection using Pixel Co-occurrence Matrices [16.224649756613655]
digital image forensicsは、デジタル操作された画像を検出することを目的としている。
文献におけるほとんどの検出方法は、特定の種類の操作を検出することに焦点を当てている。
本稿では,画素共起行列と深層学習を組み合わせることで,改ざん画像を検出する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-04-12T17:54:42Z) - Unifying Remote Sensing Image Retrieval and Classification with Robust
Fine-tuning [3.6526118822907594]
新しい大規模トレーニングおよびテストデータセットであるSF300で、リモートセンシングイメージの検索と分類を統一することを目指しています。
本研究では,ImageNetの事前学習ベースラインと比較して,9つのデータセットの検索性能と分類性能を体系的に向上させることを示す。
論文 参考訳(メタデータ) (2021-02-26T11:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。