論文の概要: Learning Cycle-Consistent Cooperative Networks via Alternating MCMC
Teaching for Unsupervised Cross-Domain Translation
- arxiv url: http://arxiv.org/abs/2103.04285v1
- Date: Sun, 7 Mar 2021 07:09:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:39:03.332585
- Title: Learning Cycle-Consistent Cooperative Networks via Alternating MCMC
Teaching for Unsupervised Cross-Domain Translation
- Title(参考訳): 教師なしクロスドメイン翻訳のための交代MCMC指導による学習サイクル一貫性協調ネットワーク
- Authors: Jianwen Xie, Zilong Zheng, Xiaolin Fang, Song-Chun Zhu, Ying Nian Wu
- Abstract要約: 本稿では、生成フレームワークの提案により、教師なしクロスドメイン翻訳問題について検討する。
提案するフレームワークは,エネルギーベースモデルと潜在変数モデルから構成される。
提案手法は,教師なし画像から画像への変換とペアなし画像のシーケンス変換に有用であることを示す。
- 参考スコア(独自算出の注目度): 108.38098645524246
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the unsupervised cross-domain translation problem by
proposing a generative framework, in which the probability distribution of each
domain is represented by a generative cooperative network that consists of an
energy-based model and a latent variable model. The use of generative
cooperative network enables maximum likelihood learning of the domain model by
MCMC teaching, where the energy-based model seeks to fit the data distribution
of domain and distills its knowledge to the latent variable model via MCMC.
Specifically, in the MCMC teaching process, the latent variable model
parameterized by an encoder-decoder maps examples from the source domain to the
target domain, while the energy-based model further refines the mapped results
by Langevin revision such that the revised results match to the examples in the
target domain in terms of the statistical properties, which are defined by the
learned energy function. For the purpose of building up a correspondence
between two unpaired domains, the proposed framework simultaneously learns a
pair of cooperative networks with cycle consistency, accounting for a two-way
translation between two domains, by alternating MCMC teaching. Experiments show
that the proposed framework is useful for unsupervised image-to-image
translation and unpaired image sequence translation.
- Abstract(参考訳): 本稿では,各領域の確率分布をエネルギーベースモデルと潜在変数モデルからなる生成協調ネットワークで表現する生成フレームワークを提案することにより,教師なしのクロスドメイン翻訳問題について検討する。
生成協調ネットワークを利用することで、MCMC教育によるドメインモデルの最大限の学習が可能となり、エネルギーベースモデルでは、ドメインのデータ分布に適合し、MCMCを介して潜在変数モデルにその知識を蒸留する。
具体的には、MCMCの指導過程において、エンコーダデコーダによりパラメータ化された潜在変数モデルは、ソースドメインから対象ドメインにマッピングする一方、エネルギーベースモデルは、学習エネルギー関数によって定義される統計特性の観点から、修正結果が対象ドメインの例と一致するように、ランゲヴィンリビジョンによってマッピングされた結果をさらに洗練する。
2つのドメイン間の対応を構築するために,MCMC教育の交互化により,2つのドメイン間の双方向翻訳を考慮し,サイクル整合性のある協調ネットワークのペアを同時に学習する。
提案手法は,教師なし画像から画像への変換とペアなし画像のシーケンス変換に有用であることを示す。
関連論文リスト
- Super-model ecosystem: A domain-adaptation perspective [101.76769818069072]
本稿では,ドメイン適応による新たなスーパーモデルパラダイムの理論的基礎を確立することを試みる。
スーパーモデルパラダイムは、計算とデータコストと二酸化炭素排出量を減らすのに役立つ。
論文 参考訳(メタデータ) (2022-08-30T09:09:43Z) - Variational Transfer Learning using Cross-Domain Latent Modulation [1.9662978733004601]
本稿では,効率的な転送学習を実現するために,新しいドメイン間遅延変調機構を変分オートエンコーダフレームワークに導入する。
ソース領域とターゲット領域の深部表現は、まず統一推論モデルにより抽出され、勾配逆数を用いて整列される。
学習した深層表現は、一貫性の制約が適用される代替ドメインの潜在エンコーディングにクロスモデレートされる。
論文 参考訳(メタデータ) (2022-05-31T03:47:08Z) - Bayesian Structure Learning with Generative Flow Networks [85.84396514570373]
ベイズ構造学習では、データから有向非巡回グラフ(DAG)上の分布を推定することに興味がある。
近年,ジェネレーティブ・フロー・ネットワーク(GFlowNets)と呼ばれる確率モデルのクラスが,ジェネレーティブ・モデリングの一般的なフレームワークとして紹介されている。
DAG-GFlowNetと呼ばれる本手法は,DAGよりも後方の正確な近似を提供する。
論文 参考訳(メタデータ) (2022-02-28T15:53:10Z) - A Domain Gap Aware Generative Adversarial Network for Multi-domain Image
Translation [22.47113158859034]
本稿では,複数の領域にまたがって画像の変換を行う統一モデルを提案する。
単一の統一ジェネレータにより、モデルはグローバルな形状と複数のドメインにわたる局所的なテクスチャ情報との整合性を維持することができる。
論文 参考訳(メタデータ) (2021-10-21T00:33:06Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Graphical Modeling for Multi-Source Domain Adaptation [56.05348879528149]
マルチソースドメイン適応(MSDA)は、複数のソースドメインからターゲットドメインへの知識の転送に焦点を当てている。
我々は2種類のグラフィカルモデルを提案する。
MSDAの条件付きランダムフィールド(CRF-MSDA)とMSDAのマルコフランダムフィールド(MRF-MSDA)
これらの2つのモデルを、ドメインシフトとデータの複雑さが異なるMSDAの4つの標準ベンチマークデータセットで評価します。
論文 参考訳(メタデータ) (2021-04-27T09:04:22Z) - Learning Energy-Based Model with Variational Auto-Encoder as Amortized
Sampler [35.80109055748496]
最大確率でエネルギーベースモデル(ebms)を訓練するにはマルコフ連鎖モンテカルロサンプリングが必要である。
我々は、エネルギー関数から派生したランゲビンダイナミクスのような有限ステップMCMCを初期化する変分オートエンコーダ(VAE)を学びます。
これらのアモールト化MCMCサンプルにより、ESMは「合成による分析」スキームに従って最大で訓練することができる。
我々はこの共同学習アルゴリズムを変分MCMC教育と呼び、VAEはEMMをデータ分布に向けて追従する。
論文 参考訳(メタデータ) (2020-12-29T20:46:40Z) - Cross-Domain Latent Modulation for Variational Transfer Learning [1.9212368803706577]
分散オートエンコーダ(VAE)フレームワーク内のクロスドメイン潜時変調機構を提案し,トランスファー学習の改善を実現する。
提案モデルは,教師なし領域適応や画像から画像への変換など,多くのトランスファー学習タスクに適用する。
論文 参考訳(メタデータ) (2020-12-21T22:45:00Z) - A Transductive Multi-Head Model for Cross-Domain Few-Shot Learning [72.30054522048553]
本稿では,クロスドメインなFew-Shot学習問題に対処するため,TMHFS(Transductive Multi-Head Few-Shot Learning)を提案する。
提案手法は, 4つの異なる対象領域において, 強いベースライン, 微調整を著しく上回っている。
論文 参考訳(メタデータ) (2020-06-08T02:39:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。