論文の概要: RoutingGAN: Routing Age Progression and Regression with Disentangled
Learning
- arxiv url: http://arxiv.org/abs/2102.00601v1
- Date: Mon, 1 Feb 2021 02:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 16:31:32.125345
- Title: RoutingGAN: Routing Age Progression and Regression with Disentangled
Learning
- Title(参考訳): RoutingGAN:Disentangleed Learningによるルーティング年齢の進行と回帰
- Authors: Zhizhong Huang and Junping Zhang and Hongming Shan
- Abstract要約: 本稿では,GAN(RoutingGAN)をベースとしたドロップアウト型手法を提案する。
まず、入力面から年齢不変の特徴を取り除き、残ったルータによる特徴に徐々に効果を付加する。
2つのベンチマークデータセットの実験結果は、定性的かつ定量的に既存の手法よりも優れた性能を示した。
- 参考スコア(独自算出の注目度): 20.579282497730944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although impressive results have been achieved for age progression and
regression, there remain two major issues in generative adversarial networks
(GANs)-based methods: 1) conditional GANs (cGANs)-based methods can learn
various effects between any two age groups in a single model, but are
insufficient to characterize some specific patterns due to completely shared
convolutions filters; and 2) GANs-based methods can, by utilizing several
models to learn effects independently, learn some specific patterns, however,
they are cumbersome and require age label in advance. To address these
deficiencies and have the best of both worlds, this paper introduces a
dropout-like method based on GAN~(RoutingGAN) to route different effects in a
high-level semantic feature space. Specifically, we first disentangle the
age-invariant features from the input face, and then gradually add the effects
to the features by residual routers that assign the convolution filters to
different age groups by dropping out the outputs of others. As a result, the
proposed RoutingGAN can simultaneously learn various effects in a single model,
with convolution filters being shared in part to learn some specific effects.
Experimental results on two benchmarked datasets demonstrate superior
performance over existing methods both qualitatively and quantitatively.
- Abstract(参考訳): Although impressive results have been achieved for age progression and regression, there remain two major issues in generative adversarial networks (GANs)-based methods: 1) conditional GANs (cGANs)-based methods can learn various effects between any two age groups in a single model, but are insufficient to characterize some specific patterns due to completely shared convolutions filters; and 2) GANs-based methods can, by utilizing several models to learn effects independently, learn some specific patterns, however, they are cumbersome and require age label in advance.
本稿では,これらの欠陥に対処するために,GAN~(RoutingGAN)に基づくドロップアウト方式を導入して,高レベルの意味的特徴空間における異なる効果を導出する。
具体的には、まず、入力面から年齢不変な特徴を外し、その後、他の出力を落として、異なる年齢グループに畳み込みフィルタを割り当てる残差ルータによって、その特徴に徐々に効果を付加する。
その結果,提案するルーティングガンは,コンボリューションフィルタを一部共有することで,単一のモデルで同時に様々な効果を学習することができる。
2つのベンチマークデータセットの実験結果は、定性的かつ定量的に既存の手法よりも優れた性能を示した。
関連論文リスト
- A Differentiable Partially Observable Generalized Linear Model with
Forward-Backward Message Passing [2.600709013150986]
既存の作業で用いられるスコア関数勾配推定器よりも優れたパスワイズ勾配推定器を実現できる新しい微分可能なPOGLMを提案する。
我々の新しい手法はより解釈可能なパラメータをもたらし、神経科学におけるその重要性を裏付ける。
論文 参考訳(メタデータ) (2024-02-02T09:34:49Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - FakeCLR: Exploring Contrastive Learning for Solving Latent Discontinuity
in Data-Efficient GANs [24.18718734850797]
Data-Efficient GAN(DE-GAN)は、限られたトレーニングデータで生成モデルを学習することを目的としている。
対照的な学習は、DE-GANの合成品質を高める大きな可能性を示している。
偽のサンプルに対してのみ対照的な学習を行うFakeCLRを提案する。
論文 参考訳(メタデータ) (2022-07-18T14:23:38Z) - Style Interleaved Learning for Generalizable Person Re-identification [69.03539634477637]
DG ReIDトレーニングのための新しいスタイルインターリーブラーニング(IL)フレームワークを提案する。
従来の学習戦略とは異なり、ILには2つの前方伝播と1つの後方伝播が組み込まれている。
我々のモデルはDG ReIDの大規模ベンチマークにおいて最先端の手法を一貫して上回ることを示す。
論文 参考訳(メタデータ) (2022-07-07T07:41:32Z) - Batch Inverse-Variance Weighting: Deep Heteroscedastic Regression [12.415463205960156]
Batch Inverse-Varianceは,実地に近い真理サンプルに対して頑健で,効果的な学習率の制御が可能な損失関数である。
実験の結果、BIVは2つのノイズデータセット上でのネットワークの性能を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2021-07-09T15:39:31Z) - Mitigating Generation Shifts for Generalized Zero-Shot Learning [52.98182124310114]
一般化ゼロショット学習(英: Generalized Zero-Shot Learning、GZSL)は、学習中に見知らぬクラスが観察できない、見つからないサンプルを認識するために意味情報(属性など)を活用するタスクである。
本稿では,未知のデータ合成を効率よく,効率的に学習するための新しい生成シフト緩和フローフレームワークを提案する。
実験結果から,GSMFlowは従来のゼロショット設定と一般化されたゼロショット設定の両方において,最先端の認識性能を実現することが示された。
論文 参考訳(メタデータ) (2021-07-07T11:43:59Z) - AgeFlow: Conditional Age Progression and Regression with Normalizing
Flows [19.45760984401544]
年齢進行と回帰は, 顔画像の光リアリスティックな外観と老化効果, 再生効果をそれぞれ合成することを目的としている。
既存のgenerative adversarial networks (gans) ベースの手法は以下の3つの大きな問題に悩まされている。
本稿では、フローベースモデルとGANの両方の利点を統合するために、AgeFlowと呼ばれる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-15T15:02:07Z) - Rethinking conditional GAN training: An approach using geometrically
structured latent manifolds [58.07468272236356]
条件付きGAN(cGAN)は、生成された出力の多様性の欠如などの重大な欠点に悩まされる。
本稿では,バニラcGANの多様性と視覚的品質を両立させる新しいトレーニング機構を提案する。
論文 参考訳(メタデータ) (2020-11-25T22:54:11Z) - Recent Developments Combining Ensemble Smoother and Deep Generative
Networks for Facies History Matching [58.720142291102135]
本研究は、ファシズムモデルのための連続パラメータ化を構築するためのオートエンコーダネットワークの利用に焦点を当てる。
本稿では,VAE,GAN,Wasserstein GAN,変分自動符号化GAN,サイクルGANの主成分分析(PCA),転送スタイルネットワークのPCA,スタイル損失のVAEの7種類の定式化をベンチマークする。
論文 参考訳(メタデータ) (2020-05-08T21:32:42Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。