論文の概要: CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images
- arxiv url: http://arxiv.org/abs/2303.14126v1
- Date: Fri, 24 Mar 2023 16:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 13:44:12.707501
- Title: CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images
- Title(参考訳): CIFAKE:AI生成合成画像の分類と説明可能な識別
- Authors: Jordan J. Bird, Ahmad Lotfi
- Abstract要約: 本稿では,コンピュータビジョンによるAI生成画像の認識能力を高めることを提案する。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
本研究では,畳み込みニューラルネットワーク(CNN)を用いて画像をリアルとフェイクの2つのカテゴリに分類する。
- 参考スコア(独自算出の注目度): 7.868449549351487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent technological advances in synthetic data have enabled the generation
of images with such high quality that human beings cannot tell the difference
between real-life photographs and Artificial Intelligence (AI) generated
images. Given the critical necessity of data reliability and authentication,
this article proposes to enhance our ability to recognise AI-generated images
through computer vision. Initially, a synthetic dataset is generated that
mirrors the ten classes of the already available CIFAR-10 dataset with latent
diffusion which provides a contrasting set of images for comparison to real
photographs. The model is capable of generating complex visual attributes, such
as photorealistic reflections in water. The two sets of data present as a
binary classification problem with regard to whether the photograph is real or
generated by AI. This study then proposes the use of a Convolutional Neural
Network (CNN) to classify the images into two categories; Real or Fake.
Following hyperparameter tuning and the training of 36 individual network
topologies, the optimal approach could correctly classify the images with
92.98% accuracy. Finally, this study implements explainable AI via Gradient
Class Activation Mapping to explore which features within the images are useful
for classification. Interpretation reveals interesting concepts within the
image, in particular, noting that the actual entity itself does not hold useful
information for classification; instead, the model focuses on small visual
imperfections in the background of the images. The complete dataset engineered
for this study, referred to as the CIFAKE dataset, is made publicly available
to the research community for future work.
- Abstract(参考訳): 近年の合成データの技術進歩により、人間が実際の写真とai(artificial intelligence)生成画像の違いを区別できないほど高品質な画像が生成されるようになった。
本論文は,データの信頼性と認証の必要性を考慮し,コンピュータビジョンによるai画像認識能力を向上させることを目的とする。
最初は、既に利用可能なcifar-10データセットの10のクラスと、実際の写真と比較してコントラストのあるイメージセットを提供する潜在拡散を反映する合成データセットが生成される。
このモデルは、水中のフォトリアリスティック反射のような複雑な視覚特性を生成することができる。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
そこで本研究では,畳み込みニューラルネットワーク(CNN)を用いて,画像をリアルとフェイクの2つのカテゴリに分類する。
ハイパーパラメータチューニングと36個のネットワークトポロジのトレーニングの後、最適なアプローチは92.98%の精度で画像を正しく分類することができた。
最後に,グラデーションクラスアクティベーションマッピングによる説明可能なaiを実装し,画像内のどの特徴が分類に有用かを検討する。
解釈は、特に、実際の実体自体が分類に有用な情報を持っていないことに注目し、画像の背景にある小さな視覚的欠陥に焦点を当てている。
CIFAKEデータセットと呼ばれるこの研究のために設計された完全なデータセットは、将来の研究のために研究コミュニティに公開されている。
関連論文リスト
- Harnessing Machine Learning for Discerning AI-Generated Synthetic Images [2.865152517440773]
我々は、AI生成画像と実画像の識別に機械学習技術を用いる。
ResNet、VGGNet、DenseNetといった先進的なディープラーニングアーキテクチャを洗練し、適応しています。
実験結果は重要であり、最適化されたディープラーニングモデルが従来の手法より優れていることを示した。
論文 参考訳(メタデータ) (2024-01-14T20:00:37Z) - Scaling Laws of Synthetic Images for Model Training ... for Now [54.43596959598466]
本研究では, 合成画像のスケーリング法則について, テクスト・ツー・イメージ・モデルの現状から検討した。
合成画像は、CLIPトレーニングの実際の画像と似ているが、やや効果の低いスケーリング傾向を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:59Z) - AI-Generated Images Introduce Invisible Relevance Bias to Text-Image
Retrieval [70.54890125718387]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - Improving the Effectiveness of Deep Generative Data [5.856292656853396]
下流の画像処理タスクのための純粋合成画像のモデルを訓練すると、実際のデータに対するトレーニングに比べ、望ましくない性能低下が生じる。
本稿では,この現象に寄与する要因を記述した新しい分類法を提案し,CIFAR-10データセットを用いて検討する。
本手法は,合成データと合成データの混合による学習と合成データのみの学習において,下流分類タスクのベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-07T12:57:58Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。