論文の概要: Open Set Synthetic Image Source Attribution
- arxiv url: http://arxiv.org/abs/2308.11557v1
- Date: Tue, 22 Aug 2023 16:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 13:04:11.803257
- Title: Open Set Synthetic Image Source Attribution
- Title(参考訳): Open Set Synthetic Image Source Attribution
- Authors: Shengbang Fang, Tai D. Nguyen, Matthew C. Stamm
- Abstract要約: 本稿では,合成画像の識別のためのメトリクス学習に基づく新しいアプローチを提案する。
本手法は, 発電機間での識別が可能な移動可能な埋め込みを学習することにより機能する。
オープンなシナリオで合成画像のソースを属性付けるアプローチの能力を実証する。
- 参考スコア(独自算出の注目度): 9.179652505898332
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI-generated images have become increasingly realistic and have garnered
significant public attention. While synthetic images are intriguing due to
their realism, they also pose an important misinformation threat. To address
this new threat, researchers have developed multiple algorithms to detect
synthetic images and identify their source generators. However, most existing
source attribution techniques are designed to operate in a closed-set scenario,
i.e. they can only be used to discriminate between known image generators. By
contrast, new image-generation techniques are rapidly emerging. To contend with
this, there is a great need for open-set source attribution techniques that can
identify when synthetic images have originated from new, unseen generators. To
address this problem, we propose a new metric learning-based approach. Our
technique works by learning transferrable embeddings capable of discriminating
between generators, even when they are not seen during training. An image is
first assigned to a candidate generator, then is accepted or rejected based on
its distance in the embedding space from known generators' learned reference
points. Importantly, we identify that initializing our source attribution
embedding network by pretraining it on image camera identification can improve
our embeddings' transferability. Through a series of experiments, we
demonstrate our approach's ability to attribute the source of synthetic images
in open-set scenarios.
- Abstract(参考訳): AI生成画像はますます現実的になり、大衆の注目を集めている。
合成画像は現実主義によって興味をそそられる一方で、重要な誤報の脅威も生じている。
この新たな脅威に対処するため、研究者は合成画像を検出し、ソースジェネレータを識別する複数のアルゴリズムを開発した。
しかし、既存のほとんどのソース属性技術はクローズドセットのシナリオで動作するように設計されており、既知の画像生成装置を識別するためにのみ使用できる。
対照的に、新しい画像生成技術が急速に発展しつつある。
これに対抗するために、新しい未知のジェネレータから合成画像がいつ発生したかを識別できるオープンセットのソース属性技術が必要である。
この問題に対処するために,新しいメトリック学習に基づくアプローチを提案する。
本手法は,訓練中に見当たらない場合でも,ジェネレータ間の識別が可能な転送可能な組込みを学習することで動作する。
画像はまず候補生成器に割り当てられ、その後、既知の生成器の学習基準点からの埋め込み空間における距離に基づいて受理または拒否される。
重要なことは、画像カメラの識別に事前トレーニングすることで、ソース属性の埋め込みネットワークを初期化することで、埋め込みの転送性が向上することである。
一連の実験を通じて,オープンセットのシナリオにおいて合成画像のソースを識別する手法の能力を実証した。
関連論文リスト
- Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - DeepFeatureX Net: Deep Features eXtractors based Network for discriminating synthetic from real images [6.75641797020186]
ディープラーニングアルゴリズムによって生成された合成画像であるDeepfakesは、Digital Forensicsの分野における最大の課題の1つだ。
ベースモデルと呼ばれる3つのブロックに基づく新しい手法を提案する。
そして、各ブロックから抽出された一般化特徴を処理して、入力画像の起源を判別する。
論文 参考訳(メタデータ) (2024-04-24T07:25:36Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Online Detection of AI-Generated Images [17.30253784649635]
この設定における一般化、Nモデルのトレーニング、および次の(N+k)上でのテストについて研究する。
我々は、この手法を画素予測に拡張し、自動的に生成されたインペイントデータを用いて、強い性能を示す。
また、商用モデルが自動データ生成に利用できないような設定では、画素検出器が合成画像全体に対してのみ訓練可能であるかどうかを評価する。
論文 参考訳(メタデータ) (2023-10-23T17:53:14Z) - Generalizable Synthetic Image Detection via Language-guided Contrastive
Learning [22.4158195581231]
偽ニュースの拡散や偽のプロフィールの作成などの合成画像の真偽の使用は、画像の真正性に関する重要な懸念を提起する。
本稿では,言語指導によるコントラスト学習と検出問題の新たな定式化による,シンプルで効果的な合成画像検出手法を提案する。
提案したLanguAge-guided SynThEsis Detection (LASTED) モデルでは,画像生成モデルに対する一般化性が大幅に向上していることが示されている。
論文 参考訳(メタデータ) (2023-05-23T08:13:27Z) - Exploring Incompatible Knowledge Transfer in Few-shot Image Generation [107.81232567861117]
少ないショット画像生成は、いくつかの参照サンプルを使用して、ターゲットドメインから多彩で高忠実な画像を生成することを学習する。
既存のF SIGメソッドは、ソースジェネレータから事前の知識を選択し、保存し、転送し、ターゲットジェネレータを学習する。
本稿では,知識保存を補完する操作であり,軽量プルーニング方式で実装した知識トランケーションを提案する。
論文 参考訳(メタデータ) (2023-04-15T14:57:15Z) - On the detection of synthetic images generated by diffusion models [18.12766911229293]
拡散モデル(DM)に基づく手法が注目されている。
DMはテキストベースのビジュアルコンテンツの作成を可能にする。
悪意のあるユーザーは、自分の攻撃に完全に適合した偽のメディアを生成し、配布することができる。
論文 参考訳(メタデータ) (2022-11-01T18:10:55Z) - A Shared Representation for Photorealistic Driving Simulators [83.5985178314263]
本稿では、識別器アーキテクチャを再考することにより、生成画像の品質を向上させることを提案する。
シーンセグメンテーションマップや人体ポーズといったセマンティックインプットによって画像が生成されるという問題に焦点が当てられている。
我々は,意味的セグメンテーション,コンテンツ再構成,および粗い粒度の逆解析を行うのに十分な情報をエンコードする,共有潜在表現を学習することを目指している。
論文 参考訳(メタデータ) (2021-12-09T18:59:21Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Just Noticeable Difference for Machines to Generate Adversarial Images [0.34376560669160383]
提案手法は、Just Noticeable differenceと呼ばれる実験心理学の一般的な概念に基づいている。
本研究で生成した対向画像は, 対向画像生成装置の出力と比較すると, より自然なように見える。
論文 参考訳(メタデータ) (2020-01-29T19:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。