論文の概要: Multiple Noises in Diffusion Model for Semi-Supervised Multi-Domain
Translation
- arxiv url: http://arxiv.org/abs/2309.14394v1
- Date: Mon, 25 Sep 2023 15:31:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 16:35:23.282985
- Title: Multiple Noises in Diffusion Model for Semi-Supervised Multi-Domain
Translation
- Title(参考訳): 半教師付きマルチドメイン翻訳のための拡散モデルにおける多重雑音
- Authors: Tsiry Mayet and Simon Bernard and Clement Chatelain and Romain Herault
- Abstract要約: 半教師付き文脈における多ドメイン翻訳のための条件付き拡散フレームワークであるMulti-Domain Diffusion (MDD)を提案する。
従来の方法とは異なり、MDDは入力と出力のドメインを定義する必要はない。
- 参考スコア(独自算出の注目度): 0.6554326244334868
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Domain-to-domain translation involves generating a target domain sample given
a condition in the source domain. Most existing methods focus on fixed input
and output domains, i.e. they only work for specific configurations (i.e. for
two domains, either $D_1\rightarrow{}D_2$ or $D_2\rightarrow{}D_1$). This paper
proposes Multi-Domain Diffusion (MDD), a conditional diffusion framework for
multi-domain translation in a semi-supervised context. Unlike previous methods,
MDD does not require defining input and output domains, allowing translation
between any partition of domains within a set (such as $(D_1,
D_2)\rightarrow{}D_3$, $D_2\rightarrow{}(D_1, D_3)$, $D_3\rightarrow{}D_1$,
etc. for 3 domains), without the need to train separate models for each domain
configuration. The key idea behind MDD is to leverage the noise formulation of
diffusion models by incorporating one noise level per domain, which allows
missing domains to be modeled with noise in a natural way. This transforms the
training task from a simple reconstruction task to a domain translation task,
where the model relies on less noisy domains to reconstruct more noisy domains.
We present results on a multi-domain (with more than two domains) synthetic
image translation dataset with challenging semantic domain inversion.
- Abstract(参考訳): ドメイン間変換では、ソースドメインの条件が与えられたターゲットドメインサンプルを生成する。
既存のほとんどのメソッドは固定入力領域と出力領域に焦点を合わせており、特定の構成(つまり、$D_1\rightarrow{}D_2$または$D_2\rightarrow{}D_1$)でのみ動作する。
半教師付き文脈における多ドメイン翻訳のための条件付き拡散フレームワークであるMulti-Domain Diffusion (MDD)を提案する。
以前の方法とは異なり、MDDは入力と出力のドメインを定義する必要はなく、各ドメインの構成ごとに別々のモデルを訓練することなく、($(D_1, D_2)\rightarrow{}D_3$, $D_2\rightarrow{}(D_1, D_3)$, $D_3\rightarrow{}D_1$など)集合内の任意のドメイン間の変換を可能にする。
MDDの背景にある重要な考え方は、拡散モデルのノイズ定式化を1つの領域に1つのノイズレベルを組み込むことで活用することである。
これにより、トレーニングタスクを単純なリコンストラクションタスクからドメイン変換タスクに変換し、モデルではよりノイズの多いドメインを再構築するために、よりノイズの少ないドメインに依存する。
本稿では,複数のドメインにまたがる合成画像翻訳データセットについて,意味領域の変換に挑戦した結果を示す。
関連論文リスト
- Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Modular Domain Adaptation for Conformer-Based Streaming ASR [28.398302172150636]
一つのモデルで全てのパラメータをドメイン固有に保ちながらマルチドメインデータを処理できるフレームワークを提案する。
ビデオキャプションデータのみに基づいてトレーニングしたストリーミングコンバータトランスデューサでは、MDAベースのモデルが、他のドメイン上のマルチドメインモデルと同様のパフォーマンスに達することを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-05-22T18:49:35Z) - Domain Translation via Latent Space Mapping [1.1470070927586016]
ラテント空間マッピング(モデル)と呼ばれる新しい統合フレームワークを導入する。
既存のアプローチとは違って,2つのドメイン間の依存関係を学習することで,利用可能なドメインを用いて各潜在空間を規則化することを提案する。
論文 参考訳(メタデータ) (2022-12-06T23:09:40Z) - Domain-General Crowd Counting in Unseen Scenarios [25.171343652312974]
群集データ間のドメインシフトは、群集数モデルが目に見えないシナリオに一般化するのを著しく妨げます。
ソースドメインを複数のサブドメインに分割する動的サブドメイン分割方式を提案する。
画像特徴におけるドメイン固有情報からドメイン不変情報を切り離すために、ドメイン不変および-特定のクラウドメモリモジュールを設計する。
論文 参考訳(メタデータ) (2022-12-05T19:52:28Z) - M2D2: A Massively Multi-domain Language Modeling Dataset [76.13062203588089]
ドメイン適応(LM)を研究するための細粒度多ドメインコーパスM2D2を提案する。
ウィキペディアとArXivから派生したカテゴリを用いて、各データソース内のドメインを22のグループに分類する。
我々は、LMをドメイン階層に沿って適用することの利点を示し、より少量のドメイン固有のデータに適応することで、ドメイン内のパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2022-10-13T21:34:52Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Efficient Hierarchical Domain Adaptation for Pretrained Language Models [77.02962815423658]
生成言語モデルは、多種多様な一般的なドメインコーパスに基づいて訓練される。
計算効率のよいアダプタアプローチを用いて,ドメイン適応を多種多様なドメインに拡張する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:09:29Z) - IDM: An Intermediate Domain Module for Domain Adaptive Person Re-ID [58.46907388691056]
ソースとターゲットドメイン間のブリッジは、UDA re-IDタスクに対処するために有効である、と我々は主張する。
中間ドメインの表現をオンザフライで生成するための中間ドメインモジュール(IDM)を提案する。
提案手法は,UDAのre-IDタスクに共通するタスクにおいて,最先端のタスクよりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-08-05T07:19:46Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。