論文の概要: Zero-Pair Image to Image Translation using Domain Conditional
Normalization
- arxiv url: http://arxiv.org/abs/2011.05680v1
- Date: Wed, 11 Nov 2020 10:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 00:16:01.717813
- Title: Zero-Pair Image to Image Translation using Domain Conditional
Normalization
- Title(参考訳): 領域条件正規化を用いたゼロペア画像から画像への変換
- Authors: Samarth Shukla, Andr\'es Romero, Luc Van Gool, Radu Timofte
- Abstract要約: ゼロペア画像-画像変換のためのドメイン条件正規化(DCN)に基づくアプローチを提案する。
本研究では,エンコーダ・デコーダ構造を持つ単一ジェネレータを用いて,領域条件正規化の異なる実装を解析し,所望の領域出力を得る。
- 参考スコア(独自算出の注目度): 138.7878582237908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose an approach based on domain conditional
normalization (DCN) for zero-pair image-to-image translation, i.e., translating
between two domains which have no paired training data available but each have
paired training data with a third domain. We employ a single generator which
has an encoder-decoder structure and analyze different implementations of
domain conditional normalization to obtain the desired target domain output.
The validation benchmark uses RGB-depth pairs and RGB-semantic pairs for
training and compares performance for the depth-semantic translation task. The
proposed approaches improve in qualitative and quantitative terms over the
compared methods, while using much fewer parameters. Code available at
https://github.com/samarthshukla/dcn
- Abstract(参考訳): 本稿では、ゼロペア画像-画像変換のためのドメイン条件正規化(DCN)に基づくアプローチを提案する。
我々は,エンコーダ・デコーダ構造を持つ単一生成器を用いて,対象領域の出力を得るために,ドメイン条件正規化の異なる実装を分析する。
検証ベンチマークでは、トレーニングにRGB-deepthペアとRGB-semanticペアを使用し、深さ-semantic変換タスクのパフォーマンスを比較する。
提案手法は, 比較手法よりも質的, 定量的に改善され, パラメータははるかに少ない。
コードはhttps://github.com/samarthshukla/dcnで利用可能
関連論文リスト
- ConvLoRA and AdaBN based Domain Adaptation via Self-Training [4.006331916849688]
マルチターゲットドメイン適応のための畳み込み低ランク適応(ConvLoRA)を提案する。
ConvLoRAはトレーニング済みのモデルウェイトを凍結し、畳み込み層にトレーニング可能な低ランク分解行列を追加し、勾配をバックプロパゲートする。
提案手法はトレーニング可能なパラメータを少なくし,大規模独立微調整ネットワークと同等あるいは同等に動作する。
論文 参考訳(メタデータ) (2024-02-07T15:43:50Z) - SynCDR : Training Cross Domain Retrieval Models with Synthetic Data [69.26882668598587]
クロスドメイン検索では、同じ意味圏から2つの視覚領域にまたがるイメージを識別するためにモデルが必要である。
我々は、これらの欠落したカテゴリの例を満たすために、ドメイン間で合成データを生成する方法を示す。
最高のSynCDRモデルは、先行技術よりも最大15%パフォーマンスが向上します。
論文 参考訳(メタデータ) (2023-12-31T08:06:53Z) - Self-supervised Domain-agnostic Domain Adaptation for Satellite Images [18.151134198549574]
このようなドメイン定義なしでドメイン適応を行うための自己教師付きドメイン非依存ドメイン適応(SS(DA)2)手法を提案する。
まず,2つの衛星画像パッチ間で画像と画像の変換を行うために,生成ネットワークのトレーニングを行う。
そして、異なる試験スペクトル特性でトレーニングデータを増強することにより、下流モデルの一般化性を向上させる。
論文 参考訳(メタデータ) (2023-09-20T07:37:23Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Domain Adaptation for Time-Series Classification to Mitigate Covariate
Shift [3.071136270246468]
本稿では,2つのステップに基づいた新しいドメイン適応手法を提案する。
まず、いくつかのサンプルから、ソースからターゲットドメインへの最適なクラス依存変換を探索する。
次に、埋め込み類似性技術を用いて、推論時に対応する変換を選択する。
論文 参考訳(メタデータ) (2022-04-07T10:27:14Z) - Efficient Hierarchical Domain Adaptation for Pretrained Language Models [77.02962815423658]
生成言語モデルは、多種多様な一般的なドメインコーパスに基づいて訓練される。
計算効率のよいアダプタアプローチを用いて,ドメイン適応を多種多様なドメインに拡張する手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T11:09:29Z) - Semantic Distribution-aware Contrastive Adaptation for Semantic
Segmentation [50.621269117524925]
ドメイン適応セマンティックセグメンテーション(ドメイン適応セマンティックセグメンテーション)とは、特定のソースドメインのアノテーションだけで特定のターゲットドメイン上で予測を行うことを指す。
画素ワイド表示アライメントを可能にする意味分布対応コントラスト適応アルゴリズムを提案する。
複数のベンチマークでSDCAを評価し、既存のアルゴリズムを大幅に改善します。
論文 参考訳(メタデータ) (2021-05-11T13:21:25Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。