論文の概要: Characterizing Photorealism and Artifacts in Diffusion Model-Generated Images
- arxiv url: http://arxiv.org/abs/2502.11989v1
- Date: Mon, 17 Feb 2025 16:28:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:13:57.032983
- Title: Characterizing Photorealism and Artifacts in Diffusion Model-Generated Images
- Title(参考訳): 拡散モデル生成画像における光現実性と人工物の特徴付け
- Authors: Negar Kamali, Karyn Nakamura, Aakriti Kumar, Angelos Chatzimparmpas, Jessica Hullman, Matthew Groh,
- Abstract要約: フォトリアリスティックなAI生成画像によるメディアへの公衆信頼の課題を考慮し,人間の検出精度を測定する大規模な実験を行った。
私たちは、シーンの複雑さ、画像内のアーティファクトタイプ、画像の表示時間、AI生成画像の人間のキュレーションが、人々がAI生成画像と現実を正確に区別する上で重要な役割を担っていることに気付きました。
- 参考スコア(独自算出の注目度): 13.097947037585671
- License:
- Abstract: Diffusion model-generated images can appear indistinguishable from authentic photographs, but these images often contain artifacts and implausibilities that reveal their AI-generated provenance. Given the challenge to public trust in media posed by photorealistic AI-generated images, we conducted a large-scale experiment measuring human detection accuracy on 450 diffusion-model generated images and 149 real images. Based on collecting 749,828 observations and 34,675 comments from 50,444 participants, we find that scene complexity of an image, artifact types within an image, display time of an image, and human curation of AI-generated images all play significant roles in how accurately people distinguish real from AI-generated images. Additionally, we propose a taxonomy characterizing artifacts often appearing in images generated by diffusion models. Our empirical observations and taxonomy offer nuanced insights into the capabilities and limitations of diffusion models to generate photorealistic images in 2024.
- Abstract(参考訳): 拡散モデルが生成した画像は、本物の写真とは区別できないように見えるが、これらの画像には、AIが生成した成果を明らかにする人工物や不確実性が含まれていることが多い。
フォトリアリスティックなAI生成画像によるメディアへの公衆信頼の課題を考慮し,450個の拡散モデル生成画像と149個の実画像に対して,人間の検出精度を大規模に測定した。
50,444人の参加者から749,828件の観察結果と34,675件のコメントを収集した結果、画像のシーンの複雑さ、画像内のアーティファクトタイプ、画像の表示時間、AI生成画像の人間のキュレーションが、AI生成画像とリアルを正確に区別する上で重要な役割を担っていることがわかった。
また,拡散モデルにより生成された画像にしばしば現れるアーティファクトを特徴付ける分類法を提案する。
我々の経験的観察と分類学は、2024年にフォトリアリスティックな画像を生成する拡散モデルの能力と限界に関する微妙な洞察を提供する。
関連論文リスト
- DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
そして、学習したアーティファクト検出器を第2段階に巻き込み、各画像に画素ごとの信頼マップを割り当てて拡散モデルをチューニングする。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - Semi-Truths: A Large-Scale Dataset of AI-Augmented Images for Evaluating Robustness of AI-Generated Image detectors [62.63467652611788]
実画像27,600枚、223,400枚、AI拡張画像1,472,700枚を含むSEMI-TRUTHSを紹介する。
それぞれの画像には、検出器のロバスト性の標準化と目標評価のためのメタデータが添付されている。
以上の結果から,現状の検出器は摂動の種類や程度,データ分布,拡張方法に様々な感度を示すことが示唆された。
論文 参考訳(メタデータ) (2024-11-12T01:17:27Z) - Crafting Synthetic Realities: Examining Visual Realism and Misinformation Potential of Photorealistic AI-Generated Images [6.308018793111589]
この研究は、AIGIのAIフォトリアリズムを4つの重要な側面、コンテンツ、人間、美学、生産機能から解き放つ。
フォトリアリスティックAIGIは、しばしば人間の人物、特に有名人や政治家を描写する。
論文 参考訳(メタデータ) (2024-09-26T02:46:43Z) - Generating Realistic X-ray Scattering Images Using Stable Diffusion and Human-in-the-loop Annotations [42.47750355293256]
我々は、与えられたプロンプトから新しい科学的画像を生成するため、基礎的な安定拡散モデルを微調整した。
生成された画像のいくつかは重要な非現実的なアーティファクトを示しており、一般に「幻覚」として知られている。
非現実的な画像を検出するために、60%の人間が承認した画像と40%の実験画像からなるデータセットを用いて様々なコンピュータビジョンモデルを訓練した。
論文 参考訳(メタデータ) (2024-08-22T20:23:04Z) - How to Distinguish AI-Generated Images from Authentic Photographs [13.878791907839691]
ガイドでは、AI生成画像によく現れる人工物と不確実性の5つのカテゴリを明らかにしている。
拡散モデルで128枚の画像を生成し,ソーシャルメディアから9枚の画像をキュレートし,42枚の実写写真をキュレートした。
この種のアーティファクトや不確実性に注意を向けることで、私たちは、AI生成画像と実際の写真とをより適切に区別することを目指しています。
論文 参考訳(メタデータ) (2024-06-12T21:23:27Z) - The Adversarial AI-Art: Understanding, Generation, Detection, and Benchmarking [47.08666835021915]
本稿では,AI生成画像(AI-art)を敵のシナリオで理解し,検出するための体系的な試みを提案する。
ARIAという名前のデータセットには、アートワーク(絵画)、ソーシャルメディアイメージ、ニュース写真、災害シーン、アニメ画像の5つのカテゴリに140万以上の画像が含まれている。
論文 参考訳(メタデータ) (2024-04-22T21:00:13Z) - Let Real Images be as a Judger, Spotting Fake Images Synthesized with Generative Models [16.900526163168827]
異なる生成モデルにより合成された偽画像のアーティファクトパターンについて検討した。
本稿では,実画像でのみ共有される自然なトレースを,検出器内の新たな予測対象として採用する。
提案手法では,96.1%のmAPがベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-03-25T07:58:58Z) - Unveiling the Truth: Exploring Human Gaze Patterns in Fake Images [34.02058539403381]
我々は、人間の意味的知識を活用して、偽画像検出のフレームワークに含まれる可能性を調べる。
予備的な統計的分析により、人間が本物の画像や変化した画像をどのように知覚するかの特徴的なパターンを探索する。
論文 参考訳(メタデータ) (2024-03-13T19:56:30Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - On quantifying and improving realism of images generated with diffusion [50.37578424163951]
与えられた画像の5つの統計的測度から算出した画像リアリズムスコア(IRS)と呼ばれるメトリクスを提案する。
IRSは、与えられた画像を実または偽のものとして分類する手段として容易に利用できる。
我々は,安定拡散モデル (SDM) , Dalle2, Midjourney, BigGAN による偽画像の検出に成功して,提案したIRSのモデルおよびデータに依存しない性質を実験的に確立した。
このデータセットは、高品質の4つのモデルによって生成される100のクラスに対して1,000のサンプルを提供します。
論文 参考訳(メタデータ) (2023-09-26T08:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。