論文の概要: Multiple Noises in Diffusion Model for Semi-Supervised Multi-Domain Translation
- arxiv url: http://arxiv.org/abs/2309.14394v2
- Date: Sat, 06 Sep 2025 01:14:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:02.554427
- Title: Multiple Noises in Diffusion Model for Semi-Supervised Multi-Domain Translation
- Title(参考訳): 半教師付きマルチドメイン翻訳のための拡散モデルにおける多重雑音
- Authors: Tsiry Mayet, Simon Bernard, Romain Herault, Clement Chatelain,
- Abstract要約: マルチドメイン翻訳の課題を解決するために,MDD(Multi-Domain Diffusion)を導入する。
MDDは新しいデータオブジェクトの欠落したビューを再構築し、半教師付きコンテキストでの学習を可能にする。
マルチドメイン合成データセットBL3NDTのドメイン翻訳実験により,本手法の評価を行った。
- 参考スコア(独自算出の注目度): 1.9510388605988505
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this work, we address the challenge of multi-domain translation, where the objective is to learn mappings between arbitrary configurations of domains within a defined set (such as $(D_1, D_2)\rightarrow{}D_3$, $D_2\rightarrow{}(D_1, D_3)$, $D_3\rightarrow{}D_1$, etc. for three domains) without the need for separate models for each specific translation configuration, enabling more efficient and flexible domain translation. We introduce Multi-Domain Diffusion (MDD), a method with dual purposes: i) reconstructing any missing views for new data objects, and ii) enabling learning in semi-supervised contexts with arbitrary supervision configurations. MDD achieves these objectives by exploiting the noise formulation of diffusion models, specifically modeling one noise level per domain. Similar to existing domain translation approaches, MDD learns the translation between any combination of domains. However, unlike prior work, our formulation inherently handles semi-supervised learning without modification by representing missing views as noise in the diffusion process. We evaluate our approach through domain translation experiments on BL3NDT, a multi-domain synthetic dataset designed for challenging semantic domain inversion, the BraTS2020 dataset, and the CelebAMask-HQ dataset.
- Abstract(参考訳): 本研究では,定義集合内のドメインの任意の構成間のマッピング(例えば$(D_1, D_2)\rightarrow{}D_3$, $D_2\rightarrow{}(D_1, D_3)$, $D_3\rightarrow{}D_1$など)を,特定の変換構成ごとに個別のモデルを必要とせずに学習し,より効率的で柔軟なドメイン変換を実現するという,マルチドメイン翻訳の課題に対処する。
二重目的を持つマルチドメイン拡散(MDD: Multi-Domain Diffusion)を導入する。
一 新規データオブジェクトの欠落したビューを再構築し、
二 任意の監督構成による半監督文脈での学習を可能にすること。
MDDは拡散モデルの雑音定式化を利用してこれらの目的を達成する。
既存のドメイン翻訳アプローチと同様に、MDDはドメインの組み合わせ間の翻訳を学ぶ。
しかし,従来の研究と異なり,この定式化は,拡散過程におけるノイズとして欠落した視点を表現することにより,修正することなく半教師付き学習を本質的に扱う。
我々はBL3NDTのドメイン翻訳実験を通じて,セマンティックドメイン変換に挑戦するために設計された多ドメイン合成データセット,BraTS2020データセット,およびCelebAMask-HQデータセットを用いてアプローチを評価した。
関連論文リスト
- Domain-Scalable Unpaired Image Translation via Latent Space Anchoring [88.7642967393508]
Unpaired Image-to-image Translation (UNIT)は、2つの視覚領域間の画像をペアのトレーニングデータなしでマッピングすることを目的としている。
そこで本研究では、潜在空間アンカーと呼ばれる新しい領域スケーリング可能なUNIT手法を提案する。
本手法は, 軽量エンコーダと回帰器モデルを学習することにより, 異なる領域の画像を, 凍ったGANと同じ潜伏空間に固定する。
推論フェーズでは、異なるドメインの学習エンコーダとデコーダを任意に組み合わせて、微調整なしで任意の2つのドメイン間で画像を変換することができる。
論文 参考訳(メタデータ) (2023-06-26T17:50:02Z) - Modular Domain Adaptation for Conformer-Based Streaming ASR [28.398302172150636]
一つのモデルで全てのパラメータをドメイン固有に保ちながらマルチドメインデータを処理できるフレームワークを提案する。
ビデオキャプションデータのみに基づいてトレーニングしたストリーミングコンバータトランスデューサでは、MDAベースのモデルが、他のドメイン上のマルチドメインモデルと同様のパフォーマンスに達することを示す実験結果が得られた。
論文 参考訳(メタデータ) (2023-05-22T18:49:35Z) - Domain Translation via Latent Space Mapping [1.1470070927586016]
ラテント空間マッピング(モデル)と呼ばれる新しい統合フレームワークを導入する。
既存のアプローチとは違って,2つのドメイン間の依存関係を学習することで,利用可能なドメインを用いて各潜在空間を規則化することを提案する。
論文 参考訳(メタデータ) (2022-12-06T23:09:40Z) - Domain-General Crowd Counting in Unseen Scenarios [25.171343652312974]
群集データ間のドメインシフトは、群集数モデルが目に見えないシナリオに一般化するのを著しく妨げます。
ソースドメインを複数のサブドメインに分割する動的サブドメイン分割方式を提案する。
画像特徴におけるドメイン固有情報からドメイン不変情報を切り離すために、ドメイン不変および-特定のクラウドメモリモジュールを設計する。
論文 参考訳(メタデータ) (2022-12-05T19:52:28Z) - M2D2: A Massively Multi-domain Language Modeling Dataset [76.13062203588089]
ドメイン適応(LM)を研究するための細粒度多ドメインコーパスM2D2を提案する。
ウィキペディアとArXivから派生したカテゴリを用いて、各データソース内のドメインを22のグループに分類する。
我々は、LMをドメイン階層に沿って適用することの利点を示し、より少量のドメイン固有のデータに適応することで、ドメイン内のパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2022-10-13T21:34:52Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Efficient Hierarchical Domain Adaptation for Pretrained Language Models [77.02962815423658]
生成言語モデルは、多種多様な一般的なドメインコーパスに基づいて訓練される。
計算効率のよいアダプタアプローチを用いて,ドメイン適応を多種多様なドメインに拡張する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:09:29Z) - IDM: An Intermediate Domain Module for Domain Adaptive Person Re-ID [58.46907388691056]
ソースとターゲットドメイン間のブリッジは、UDA re-IDタスクに対処するために有効である、と我々は主張する。
中間ドメインの表現をオンザフライで生成するための中間ドメインモジュール(IDM)を提案する。
提案手法は,UDAのre-IDタスクに共通するタスクにおいて,最先端のタスクよりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2021-08-05T07:19:46Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。