論文の概要: OpenGAN: Open Set Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2003.08074v1
- Date: Wed, 18 Mar 2020 07:24:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:40:29.004709
- Title: OpenGAN: Open Set Generative Adversarial Networks
- Title(参考訳): opengan: オープンセット生成型広告ネットワーク
- Authors: Luke Ditria, Benjamin J. Meyer, Tom Drummond
- Abstract要約: 本稿では,開集合 GAN アーキテクチャ (OpenGAN) を提案する。
与えられたソースイメージにセマンティックに類似したサンプルを生成することができます。
GANトレーニング分布外のクラスにおいて,OpenGANサンプルを用いてトレーニングデータを増強することにより,性能を著しく向上できることを示す。
- 参考スコア(独自算出の注目度): 16.02382549750862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many existing conditional Generative Adversarial Networks (cGANs) are limited
to conditioning on pre-defined and fixed class-level semantic labels or
attributes. We propose an open set GAN architecture (OpenGAN) that is
conditioned per-input sample with a feature embedding drawn from a metric
space. Using a state-of-the-art metric learning model that encodes both
class-level and fine-grained semantic information, we are able to generate
samples that are semantically similar to a given source image. The semantic
information extracted by the metric learning model transfers to
out-of-distribution novel classes, allowing the generative model to produce
samples that are outside of the training distribution. We show that our
proposed method is able to generate 256$\times$256 resolution images from novel
classes that are of similar visual quality to those from the training classes.
In lieu of a source image, we demonstrate that random sampling of the metric
space also results in high-quality samples. We show that interpolation in the
feature space and latent space results in semantically and visually plausible
transformations in the image space. Finally, the usefulness of the generated
samples to the downstream task of data augmentation is demonstrated. We show
that classifier performance can be significantly improved by augmenting the
training data with OpenGAN samples on classes that are outside of the GAN
training distribution.
- Abstract(参考訳): 既存の条件付きジェネレータネットワーク(cGAN)の多くは、事前に定義されたクラスレベルのセマンティックラベルや属性の条件付けに限られている。
計量空間から特徴埋め込みした入力サンプル毎に条件付けされたオープン集合 gan アーキテクチャ (opengan) を提案する。
クラスレベルときめ細かなセマンティック情報をエンコードする最先端のメトリック学習モデルを用いて、与えられたソース画像にセマンティックに類似したサンプルを生成することができる。
計量学習モデルによって抽出された意味情報は、分布外の新しいクラスに転送され、生成モデルがトレーニング分布外のサンプルを生成する。
提案手法は,学習クラスに類似した視覚的品質を持つ新しいクラスから256$\times$256の解像度画像を生成することができることを示す。
ソース画像の代わりに、距離空間のランダムなサンプリングも高品質なサンプルをもたらすことを示す。
特徴空間と潜在空間の補間は画像空間における意味的かつ視覚的に可算な変換をもたらすことを示す。
最後に、データ拡張の下流タスクに対する生成されたサンプルの有用性を示す。
GAN トレーニング分布外のクラスにおいて,OpenGAN サンプルを用いて学習データを増強することにより,分類器の性能を大幅に向上できることを示す。
関連論文リスト
- Deep Generative Sampling in the Dual Divergence Space: A Data-efficient & Interpretative Approach for Generative AI [29.13807697733638]
自然画像の生成的サンプリングにおける顕著な成果の上に構築する。
我々は、画像に似たサンプルを生成するという、画期的な挑戦を、潜在的に過度に野心的に提案する。
統計上の課題は、小さなサンプルサイズであり、時には数百人の被験者で構成されている。
論文 参考訳(メタデータ) (2024-04-10T22:35:06Z) - FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - DEff-GAN: Diverse Attribute Transfer for Few-Shot Image Synthesis [0.38073142980733]
我々は、サンプル合成のための複数の画像をモデル化するために、単一画像GAN法を拡張した。
我々のデータ効率GAN(DEff-GAN)は、入力画像やクラス間で類似性や対応性を引き出すことができる場合に優れた結果をもたらす。
論文 参考訳(メタデータ) (2023-02-28T12:43:52Z) - Extracting Semantic Knowledge from GANs with Unsupervised Learning [65.32631025780631]
GAN(Generative Adversarial Networks)は、特徴写像のセマンティクスを線形に分離可能な形でエンコードする。
本稿では,線形分離性を利用してGANの特徴をクラスタリングする新しいクラスタリングアルゴリズムKLiSHを提案する。
KLiSHは、さまざまなオブジェクトのデータセットに基づいてトレーニングされたGANのきめ細かいセマンティクスの抽出に成功している。
論文 参考訳(メタデータ) (2022-11-30T03:18:16Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - DGMIL: Distribution Guided Multiple Instance Learning for Whole Slide
Image Classification [9.950131528559211]
本稿では,WSI分類と正のパッチローカライゼーションのための機能分布ガイド付きディープMILフレームワークを提案する。
CAMELYON16 データセットと TCGA Lung Cancer データセットを用いた実験により,本手法はグローバルな分類と正のパッチローカライゼーションの両タスクにおいて,新たな SOTA を実現することが示された。
論文 参考訳(メタデータ) (2022-06-17T16:04:30Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - Cherry-Picking Gradients: Learning Low-Rank Embeddings of Visual Data
via Differentiable Cross-Approximation [53.95297550117153]
本稿では,大規模な視覚データテンソルの処理を行うエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は大規模多次元グリッドデータや,大規模受容領域上のコンテキストを必要とするタスクに特に有用である。
論文 参考訳(メタデータ) (2021-05-29T08:39:57Z) - VAE-Info-cGAN: Generating Synthetic Images by Combining Pixel-level and
Feature-level Geospatial Conditional Inputs [0.0]
画素レベル(PLC)と特徴レベル(FLC)を同時に条件付けした意味的リッチな画像を合成するための条件生成モデルを提案する。
GPSデータセットを用いた実験では,提案モデルが地理的に異なる場所にまたがる様々な形態のマクロアグリゲーションを正確に生成できることが示されている。
論文 参考訳(メタデータ) (2020-12-08T03:46:19Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。