論文の概要: CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images
- arxiv url: http://arxiv.org/abs/2303.14126v1
- Date: Fri, 24 Mar 2023 16:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 13:44:12.707501
- Title: CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images
- Title(参考訳): CIFAKE:AI生成合成画像の分類と説明可能な識別
- Authors: Jordan J. Bird, Ahmad Lotfi
- Abstract要約: 本稿では,コンピュータビジョンによるAI生成画像の認識能力を高めることを提案する。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
本研究では,畳み込みニューラルネットワーク(CNN)を用いて画像をリアルとフェイクの2つのカテゴリに分類する。
- 参考スコア(独自算出の注目度): 7.868449549351487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent technological advances in synthetic data have enabled the generation
of images with such high quality that human beings cannot tell the difference
between real-life photographs and Artificial Intelligence (AI) generated
images. Given the critical necessity of data reliability and authentication,
this article proposes to enhance our ability to recognise AI-generated images
through computer vision. Initially, a synthetic dataset is generated that
mirrors the ten classes of the already available CIFAR-10 dataset with latent
diffusion which provides a contrasting set of images for comparison to real
photographs. The model is capable of generating complex visual attributes, such
as photorealistic reflections in water. The two sets of data present as a
binary classification problem with regard to whether the photograph is real or
generated by AI. This study then proposes the use of a Convolutional Neural
Network (CNN) to classify the images into two categories; Real or Fake.
Following hyperparameter tuning and the training of 36 individual network
topologies, the optimal approach could correctly classify the images with
92.98% accuracy. Finally, this study implements explainable AI via Gradient
Class Activation Mapping to explore which features within the images are useful
for classification. Interpretation reveals interesting concepts within the
image, in particular, noting that the actual entity itself does not hold useful
information for classification; instead, the model focuses on small visual
imperfections in the background of the images. The complete dataset engineered
for this study, referred to as the CIFAKE dataset, is made publicly available
to the research community for future work.
- Abstract(参考訳): 近年の合成データの技術進歩により、人間が実際の写真とai(artificial intelligence)生成画像の違いを区別できないほど高品質な画像が生成されるようになった。
本論文は,データの信頼性と認証の必要性を考慮し,コンピュータビジョンによるai画像認識能力を向上させることを目的とする。
最初は、既に利用可能なcifar-10データセットの10のクラスと、実際の写真と比較してコントラストのあるイメージセットを提供する潜在拡散を反映する合成データセットが生成される。
このモデルは、水中のフォトリアリスティック反射のような複雑な視覚特性を生成することができる。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
そこで本研究では,畳み込みニューラルネットワーク(CNN)を用いて,画像をリアルとフェイクの2つのカテゴリに分類する。
ハイパーパラメータチューニングと36個のネットワークトポロジのトレーニングの後、最適なアプローチは92.98%の精度で画像を正しく分類することができた。
最後に,グラデーションクラスアクティベーションマッピングによる説明可能なaiを実装し,画像内のどの特徴が分類に有用かを検討する。
解釈は、特に、実際の実体自体が分類に有用な情報を持っていないことに注目し、画像の背景にある小さな視覚的欠陥に焦点を当てている。
CIFAKEデータセットと呼ばれるこの研究のために設計された完全なデータセットは、将来の研究のために研究コミュニティに公開されている。
関連論文リスト
- Diffusion Curriculum: Synthetic-to-Real Generative Curriculum Learning via Image-Guided Diffusion [19.54496184675988]
品質の低いデータや少ないデータは、実際にディープニューラルネットワークをトレーニングする上で大きな課題となっている。
拡散カリキュラム(DisCL)は、訓練段階ごとに画像合成のイメージガイダンスレベルを調整する。
DisCLは、多様性や品質に弱いかもしれない高感度画像を学習するウォームアップとして、高品質な画像から特徴を学ぶことに焦点を当てている。
論文 参考訳(メタデータ) (2024-10-17T15:33:35Z) - Development of a Dual-Input Neural Model for Detecting AI-Generated Imagery [0.0]
AI生成画像を検出するツールを開発することが重要である。
本稿では、画像とフーリエ周波数分解の両方を入力として扱うデュアルブランチニューラルネットワークアーキテクチャを提案する。
提案モデルでは,CIFAKEデータセットの精度が94%向上し,従来のML手法やCNNよりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T16:42:04Z) - The Adversarial AI-Art: Understanding, Generation, Detection, and Benchmarking [47.08666835021915]
本稿では,AI生成画像(AI-art)を敵のシナリオで理解し,検出するための体系的な試みを提案する。
ARIAという名前のデータセットには、アートワーク(絵画)、ソーシャルメディアイメージ、ニュース写真、災害シーン、アニメ画像の5つのカテゴリに140万以上の画像が含まれている。
論文 参考訳(メタデータ) (2024-04-22T21:00:13Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。