論文の概要: Visualizing Adapted Knowledge in Domain Transfer
- arxiv url: http://arxiv.org/abs/2104.10602v1
- Date: Tue, 20 Apr 2021 17:59:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 14:35:41.828403
- Title: Visualizing Adapted Knowledge in Domain Transfer
- Title(参考訳): ドメイン転送における適応知識の可視化
- Authors: Yunzhong Hou, Liang Zheng
- Abstract要約: ソースデータに基づいて訓練されたソースモデルと、教師なしドメイン適応(UDA)を通じて学習されたターゲットモデルは通常、異なる知識を符号化する。
対象画像と2つのモデルのみを用いてソース形式の画像を生成するソースフリー画像翻訳手法を提案する。
異なる UDA メソッドでいくつかのデータセットで適応した知識を視覚化し、生成された画像が2つのドメインのスタイルの違いをうまく捉えることを見つけます。
- 参考スコア(独自算出の注目度): 25.598840284457548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A source model trained on source data and a target model learned through
unsupervised domain adaptation (UDA) usually encode different knowledge. To
understand the adaptation process, we portray their knowledge difference with
image translation. Specifically, we feed a translated image and its original
version to the two models respectively, formulating two branches. Through
updating the translated image, we force similar outputs from the two branches.
When such requirements are met, differences between the two images can
compensate for and hence represent the knowledge difference between models. To
enforce similar outputs from the two branches and depict the adapted knowledge,
we propose a source-free image translation method that generates source-style
images using only target images and the two models. We visualize the adapted
knowledge on several datasets with different UDA methods and find that
generated images successfully capture the style difference between the two
domains. For application, we show that generated images enable further tuning
of the target model without accessing source data. Code available at
https://github.com/hou-yz/DA_visualization.
- Abstract(参考訳): ソースデータに基づいて訓練されたソースモデルと、教師なしドメイン適応(UDA)を通じて学習されたターゲットモデルは通常、異なる知識を符号化する。
適応過程を理解するために,画像翻訳による知識差を表現した。
具体的には、翻訳画像とその原版を2つのモデルにそれぞれ供給し、2つのブランチを定式化する。
翻訳画像の更新により、2つの枝から同様の出力を強制する。
このような要件を満たすと、2つの画像の違いが補償され、モデル間の知識の違いを表す。
そこで本研究では,対象画像と2つのモデルのみを用いて,ソーススタイルの画像を生成する,ソースフリーな画像翻訳手法を提案する。
異なるUDA手法で複数のデータセットに適応した知識を視覚化し、生成した画像が2つのドメイン間のスタイルの違いをうまく捉えていることを確かめる。
アプリケーションの場合、生成した画像はソースデータにアクセスせずにターゲットモデルのさらなるチューニングを可能にする。
コードはhttps://github.com/hou-yz/da_visualizationで入手できる。
関連論文リスト
- DEADiff: An Efficient Stylization Diffusion Model with Disentangled
Representations [64.43387739794531]
現在のエンコーダベースのアプローチは、スタイルの転送中にテキスト・ツー・イメージモデルのテキスト制御性を著しく損なう。
この問題に対処するために、以下の2つの戦略を用いてDEADiffを紹介します。
DeAiffは、テキスト・ツー・イメージモデルに固有のテキスト制御性と、参照画像とスタイルの類似性との間の最適な視覚的スタイリング結果と最適なバランスを得る。
論文 参考訳(メタデータ) (2024-03-11T17:35:23Z) - SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Dual Diffusion Implicit Bridges for Image-to-Image Translation [104.59371476415566]
画像と画像の共通翻訳法は、ソースドメインとターゲットドメインの両方のデータに対する共同トレーニングに依存している。
本稿では拡散モデルに基づく画像変換法であるDual Diffusion Implicit Bridges (DDIBs)を提案する。
DDIBは任意のソースターゲットドメイン間の変換を可能にし、それぞれのドメイン上で独立に訓練された拡散モデルを与える。
論文 参考訳(メタデータ) (2022-03-16T04:10:45Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Image-to-Image Translation with Low Resolution Conditioning [0.28675177318965034]
本研究の目的は、高解像度(HR)画像から細部を転写して、ターゲットの粗い低解像度(LR)画像表現に適合させることである。
これは、あるイメージスタイルをターゲットコンテンツに変換することに集中する以前の方法とは異なる。
提案手法は, HRターゲット画像を生成するための生成モデルをトレーニングすることに依存し, 1) 対応するソース画像の固有情報を共有すること, 2) ダウンスケール時のLRターゲット画像と正しく一致させることである。
論文 参考訳(メタデータ) (2021-07-23T14:22:12Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。