論文の概要: Detecting AI-Generated Images via CLIP
- arxiv url: http://arxiv.org/abs/2404.08788v1
- Date: Fri, 12 Apr 2024 19:29:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 18:42:32.692582
- Title: Detecting AI-Generated Images via CLIP
- Title(参考訳): CLIPによるAI生成画像の検出
- Authors: A. G. Moskowitz, T. Gaona, J. Peterson,
- Abstract要約: 我々は,大規模なインターネット規模のデータセットで事前学習したコントラスト言語-画像事前学習(CLIP)アーキテクチャを用いて,画像がAI生成されているかどうかを判定する能力について検討する。
いくつかの生成モデルからCLIPを実画像とAIGIに微調整し、CLIPが画像がAI生成されているかどうかを判断し、もしそうであれば、その生成にどの生成方法が使われたかを決定する。
本手法は,AIGI検出ツールへのアクセスを著しく増加させ,社会に対するAIGIの悪影響を低減させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As AI-generated image (AIGI) methods become more powerful and accessible, it has become a critical task to determine if an image is real or AI-generated. Because AIGI lack the signatures of photographs and have their own unique patterns, new models are needed to determine if an image is AI-generated. In this paper, we investigate the ability of the Contrastive Language-Image Pre-training (CLIP) architecture, pre-trained on massive internet-scale data sets, to perform this differentiation. We fine-tune CLIP on real images and AIGI from several generative models, enabling CLIP to determine if an image is AI-generated and, if so, determine what generation method was used to create it. We show that the fine-tuned CLIP architecture is able to differentiate AIGI as well or better than models whose architecture is specifically designed to detect AIGI. Our method will significantly increase access to AIGI-detecting tools and reduce the negative effects of AIGI on society, as our CLIP fine-tuning procedures require no architecture changes from publicly available model repositories and consume significantly less GPU resources than other AIGI detection models.
- Abstract(参考訳): AI生成画像(AIGI)メソッドがより強力でアクセスしやすくなれば,イメージが現実であるか,あるいはAI生成であるかを判断する重要なタスクになる。
AIGIは写真の署名がなく、独自のパターンを持っているため、画像がAI生成されているかどうかを判断するためには、新しいモデルが必要である。
本稿では,インターネット規模の大規模データセットで事前学習したコントラスト言語画像事前学習(CLIP)アーキテクチャの差分処理能力について検討する。
いくつかの生成モデルからCLIPを実画像とAIGIに微調整し、CLIPが画像がAI生成されているかどうかを判断し、もしそうであれば、その生成にどの生成方法が使われたかを決定する。
我々は、微調整のCLIPアーキテクチャが、AIGIを特に検出するように設計されたモデルよりも、AIGIを差別化できることを示す。
我々のCLIPファインチューニング手順では,公開モデルリポジトリからのアーキテクチャ変更が不要であり,他のAIGI検出モデルよりもGPUリソースの消費が著しく少ないため,AIGI検出ツールへのアクセスを大幅に増加させ,社会に対するAIGIの悪影響を低減する。
関連論文リスト
- Raising the Bar of AI-generated Image Detection with CLIP [50.345365081177555]
本研究の目的は、AI生成画像の普遍的検出のための事前学習された視覚言語モデル(VLM)の可能性を探ることである。
我々は,CLIP機能に基づく軽量な検出戦略を開発し,その性能を様々な難易度シナリオで検証する。
論文 参考訳(メタデータ) (2023-11-30T21:11:20Z) - PatchCraft: Exploring Texture Patch for Efficient AI-generated Image
Detection [39.820699370876916]
本稿では,多種多様な生成モデルを用いて生成した偽画像を識別できる新しいAI生成画像検出器を提案する。
グローバルな意味情報を消去し,テクスチャパッチを強化するために,新しいSmash&Reconstruction前処理を提案する。
我々のアプローチは最先端のベースラインよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2023-11-21T07:12:40Z) - Online Detection of AI-Generated Images [17.30253784649635]
この設定における一般化、Nモデルのトレーニング、および次の(N+k)上でのテストについて研究する。
我々は、この手法を画素予測に拡張し、自動的に生成されたインペイントデータを用いて、強い性能を示す。
また、商用モデルが自動データ生成に利用できないような設定では、画素検出器が合成画像全体に対してのみ訓練可能であるかどうかを評価する。
論文 参考訳(メタデータ) (2023-10-23T17:53:14Z) - AI-Generated Images as Data Source: The Dawn of Synthetic Era [61.879821573066216]
生成AIは、現実世界の写真によく似た合成画像を作成する可能性を解き放った。
本稿では、これらのAI生成画像を新しいデータソースとして活用するという革新的な概念を探求する。
実際のデータとは対照的に、AI生成データには、未整合のアブリダンスやスケーラビリティなど、大きなメリットがある。
論文 参考訳(メタデータ) (2023-10-03T06:55:19Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images [7.868449549351487]
本稿では,コンピュータビジョンによるAI生成画像の認識能力を高めることを提案する。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
本研究では,畳み込みニューラルネットワーク(CNN)を用いて画像をリアルとフェイクの2つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-03-24T16:33:06Z) - Deepfake Network Architecture Attribution [23.375381198124014]
既存のフェイク画像属性の研究は、GAN(Generative Adversarial Network)モデルでマルチクラス分類を行っている。
textitDeepfake Network Architecture Attribution に関する最初の研究を行い,アーキテクチャレベルでの偽画像の属性について述べる。
論文 参考訳(メタデータ) (2022-02-28T14:54:30Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。