論文の概要: Learning Common and Salient Generative Factors Between Two Image Datasets
- arxiv url: http://arxiv.org/abs/2512.12800v1
- Date: Sun, 14 Dec 2025 18:47:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.447859
- Title: Learning Common and Salient Generative Factors Between Two Image Datasets
- Title(参考訳): 2つの画像データセット間の共通および有能な生成因子の学習
- Authors: Yunlong He, Gwilherm Lesné, Ziqian Liu, Michaël Soumm, Pietro Gori,
- Abstract要約: コントラスト分析のための新しい枠組みを提案する。
新しく順応した学習戦略と損失を定義することで、一般的な要因と健全な要因の分離を確実にする。
本フレームワークは,従来の手法に比べて分離性能と画像合成品質が優れていることを示す。
- 参考スコア(独自算出の注目度): 5.687672336203402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in image synthesis have enabled high-quality image generation and manipulation. Most works focus on: 1) conditional manipulation, where an image is modified conditioned on a given attribute, or 2) disentangled representation learning, where each latent direction should represent a distinct semantic attribute. In this paper, we focus on a different and less studied research problem, called Contrastive Analysis (CA). Given two image datasets, we want to separate the common generative factors, shared across the two datasets, from the salient ones, specific to only one dataset. Compared to existing methods, which use attributes as supervised signals for editing (e.g., glasses, gender), the proposed method is weaker, since it only uses the dataset signal. We propose a novel framework for CA, that can be adapted to both GAN and Diffusion models, to learn both common and salient factors. By defining new and well-adapted learning strategies and losses, we ensure a relevant separation between common and salient factors, preserving a high-quality generation. We evaluate our approach on diverse datasets, covering human faces, animal images and medical scans. Our framework demonstrates superior separation ability and image quality synthesis compared to prior methods.
- Abstract(参考訳): 画像合成の最近の進歩は、高品質な画像生成と操作を可能にしている。
ほとんどの作品に焦点が当てられている。
1) 画像が所定の属性に条件付けされている場合、又は
2) 係留表現学習では, それぞれの係留方向が異なる意味的属性を表現すべきである。
本稿では,コントラスト分析(Contrastive Analysis, CA)と呼ばれる,異なる研究課題に焦点をあてる。
2つの画像データセットが与えられた場合、私たちは2つのデータセット間で共有される共通の生成因子を、単一のデータセットのみに特有な有能なデータセットから分離したいと思っています。
属性を教師付き信号として(例えば、眼鏡、性別など)編集する既存の手法と比較して、データセット信号のみを使用するため、提案手法はより弱い。
本稿では,GANモデルと拡散モデルの両方に適用可能なCAの新しいフレームワークを提案する。
新規で順応した学習戦略と損失を定義することで、私たちは、一般的な要因と健全な要因を適切に分離し、高品質な生成を保ちます。
我々は、人間の顔、動物像、医療スキャンなど、多様なデータセットに対するアプローチを評価した。
筆者らのフレームワークは, 従来の手法に比べて, 分離能力と画像品質の優れた合成を実証している。
関連論文リスト
- Separating common from salient patterns with Contrastive Representation
Learning [2.250968907999846]
コントラスト分析は、2つのデータセット間の変動の共通要因を分離することを目的としている。
変分オートエンコーダに基づく現在のモデルは意味表現の学習において性能が劣っている。
コントラスト分析に適合した意味表現表現を学習するためのコントラスト学習の活用を提案する。
論文 参考訳(メタデータ) (2024-02-19T08:17:13Z) - Double InfoGAN for Contrastive Analysis [2.342780148664847]
コントラスト分析(CA)は、共通点と対象領域に特有の点の発見を扱う。
現状技術(SOTA)法は, VAE(CA-VAEs)に基づく潜時変動モデルである
本稿では、GANの高品質な合成とInfoGANの分離能力を活用した、CAのための最初のGANベースの手法であるDouble InfoGANを提案する。
論文 参考訳(メタデータ) (2024-01-31T12:16:39Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - Mix-up Self-Supervised Learning for Contrast-agnostic Applications [33.807005669824136]
コントラストに依存しないアプリケーションのための,最初の混合型自己教師型学習フレームワークを提案する。
クロスドメイン・ミックスアップに基づく画像間の低分散に対処し、画像再構成と透明性予測に基づくプレテキストタスクを構築する。
論文 参考訳(メタデータ) (2022-04-02T16:58:36Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z) - Domain Siamese CNNs for Sparse Multispectral Disparity Estimation [15.065764374430783]
そこで本研究では,異なるスペクトルの画像間の不均一性を推定できる新しいCNNアーキテクチャを提案する。
LITIV 2014およびLITIV 2018データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2020-04-30T20:29:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。