論文の概要: A Siamese-based Verification System for Open-set Architecture
Attribution of Synthetic Images
- arxiv url: http://arxiv.org/abs/2307.09822v2
- Date: Fri, 29 Dec 2023 10:43:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 02:11:13.810445
- Title: A Siamese-based Verification System for Open-set Architecture
Attribution of Synthetic Images
- Title(参考訳): 合成画像のオープンセットアーキテクチャ属性に対するシームズによる検証システム
- Authors: Lydia Abady, Jun Wang, Benedetta Tondi, Mauro Barni
- Abstract要約: 本稿では,合成画像のオープンセット属性問題に対処するために,シームズネットワークを利用した検証フレームワークを提案する。
提案システムの主な強みは、クローズドシナリオとオープンセットシナリオの両方で運用できることである。
- 参考スコア(独自算出の注目度): 23.457275120490706
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite the wide variety of methods developed for synthetic image
attribution, most of them can only attribute images generated by models or
architectures included in the training set and do not work with unknown
architectures, hindering their applicability in real-world scenarios. In this
paper, we propose a verification framework that relies on a Siamese Network to
address the problem of open-set attribution of synthetic images to the
architecture that generated them. We consider two different settings. In the
first setting, the system determines whether two images have been produced by
the same generative architecture or not. In the second setting, the system
verifies a claim about the architecture used to generate a synthetic image,
utilizing one or multiple reference images generated by the claimed
architecture. The main strength of the proposed system is its ability to
operate in both closed and open-set scenarios so that the input images, either
the query and reference images, can belong to the architectures considered
during training or not. Experimental evaluations encompassing various
generative architectures such as GANs, diffusion models, and transformers,
focusing on synthetic face image generation, confirm the excellent performance
of our method in both closed and open-set settings, as well as its strong
generalization capabilities.
- Abstract(参考訳): 合成画像属性のための様々な手法が開発されているが、そのほとんどはトレーニングセットに含まれるモデルやアーキテクチャによって生成された画像のみを属性とすることができ、未知のアーキテクチャでは動作せず、現実のシナリオにおける適用性を妨げている。
本稿では,合成画像から生成したアーキテクチャへのオープンセット帰属問題に対処するために,シャムネットワークを利用する検証フレームワークを提案する。
私たちは2つの異なる設定を考えます。
最初の設定では、2つの画像が同じ生成アーキテクチャで作成されたか否かを判定する。
第2設定では、システムは、クレームアーキテクチャによって生成された1つまたは複数の参照画像を利用して、合成画像を生成するために使用されるアーキテクチャに関するクレームを検証する。
提案システムの主な強みは、クローズドシナリオとオープンセットシナリオの両方で動作可能であり、入力画像(クエリ画像と参照画像の両方)が、トレーニング中に考慮されたアーキテクチャに属することができることである。
gan,拡散モデル,トランスフォーマなどの様々な生成アーキテクチャを包含する実験評価では,合成顔画像生成に着目し,クローズド設定とオープンセット設定の両方において優れた性能と強力な一般化性能を確認した。
関連論文リスト
- Machine Apophenia: The Kaleidoscopic Generation of Architectural Images [11.525355831490828]
本研究では,建築設計における生成人工知能の適用について検討する。
本稿では,複数のニューラルネットワークを組み合わせて,教師なしかつ修正されていないユニークなアーキテクチャイメージのストリームを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-07-12T11:11:19Z) - BOSC: A Backdoor-based Framework for Open Set Synthetic Image Attribution [22.81354665006496]
合成画像属性は、生成モデルによって生成された画像の起源をトレースする問題に対処する。
本稿では,バックドアアタックの概念に依存する,BOSCと呼ばれる合成画像のオープンセット属性の枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-19T09:17:43Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - Kandinsky: an Improved Text-to-Image Synthesis with Image Prior and
Latent Diffusion [50.59261592343479]
本稿では、潜伏拡散アーキテクチャの新しい探索であるKandinsky1を紹介する。
提案したモデルは、CLIPのイメージ埋め込みにテキスト埋め込みをマッピングするために別々に訓練されている。
また,テキスト・ツー・イメージ生成,画像融合,テキスト・画像融合,画像のバリエーション生成,テキスト・インペイント/アウトペイントなど,多様な生成モードをサポートするユーザフレンドリーなデモシステムも展開した。
論文 参考訳(メタデータ) (2023-10-05T12:29:41Z) - A Compositional Approach to Creating Architecture Frameworks with an
Application to Distributed AI Systems [16.690434072032176]
構成的思考が複雑なシステムのためのアーキテクチャフレームワークの作成と管理のルールをいかに提供できるかを示す。
論文の目的は、AIシステム特有の視点やアーキテクチャモデルを提供することではなく、既存の、または新しく作成された視点で一貫したフレームワークを構築する方法についてのガイドラインを提供することである。
論文 参考訳(メタデータ) (2022-12-27T18:05:02Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Generating Diverse Structure for Image Inpainting With Hierarchical
VQ-VAE [74.29384873537587]
本稿では,異なる構造を持つ複数の粗い結果を第1段階で生成し,第2段階ではテクスチャを増補して各粗い結果を別々に洗練する,多彩な塗布用2段階モデルを提案する。
CelebA-HQ, Places2, ImageNetデータセットによる実験結果から,本手法は塗布ソリューションの多様性を向上するだけでなく,生成した複数の画像の視覚的品質も向上することが示された。
論文 参考訳(メタデータ) (2021-03-18T05:10:49Z) - Retinex-inspired Unrolling with Cooperative Prior Architecture Search
for Low-light Image Enhancement [58.72667941107544]
低照度画像のための軽量で効果的な拡張ネットワークを構築するために,Retinex-inspired Unrolling with Architecture Search (RUAS)を提案する。
RUASは、高速かつ少ない計算リソースで、最高性能の画像強化ネットワークを得ることができます。
論文 参考訳(メタデータ) (2020-12-10T11:51:23Z) - One Model to Reconstruct Them All: A Novel Way to Use the Stochastic
Noise in StyleGAN [10.810541849249821]
本稿では,複数のデータ領域にまたがる非常に高品質な画像を再構成可能な,新しいスタイルGANベースのオートエンコーダアーキテクチャを提案する。
提案アーキテクチャでは,従来のアプローチの約28倍高速な単一GPU上で,毎秒40イメージを処理可能である。
論文 参考訳(メタデータ) (2020-10-21T16:24:07Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。