論文の概要: Rethinking the Truly Unsupervised Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2006.06500v2
- Date: Fri, 20 Aug 2021 03:36:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 12:57:10.493270
- Title: Rethinking the Truly Unsupervised Image-to-Image Translation
- Title(参考訳): 真に教師なしの画像から画像への翻訳を再考する
- Authors: Kyungjune Baek, Yunjey Choi, Youngjung Uh, Jaejun Yoo, Hyunjung Shim
- Abstract要約: 教師なし画像画像変換モデル(TUNIT)は、画像領域を分離し、入力画像を推定領域に変換する。
実験結果から、TUNITはフルラベルでトレーニングされたセットレベルの教師付きモデルと同等またはそれ以上のパフォーマンスを達成することが示された。
TUNITはラベル付きデータで簡単にセミ教師付き学習に拡張できる。
- 参考スコア(独自算出の注目度): 29.98784909971291
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Every recent image-to-image translation model inherently requires either
image-level (i.e. input-output pairs) or set-level (i.e. domain labels)
supervision. However, even set-level supervision can be a severe bottleneck for
data collection in practice. In this paper, we tackle image-to-image
translation in a fully unsupervised setting, i.e., neither paired images nor
domain labels. To this end, we propose a truly unsupervised image-to-image
translation model (TUNIT) that simultaneously learns to separate image domains
and translates input images into the estimated domains. Experimental results
show that our model achieves comparable or even better performance than the
set-level supervised model trained with full labels, generalizes well on
various datasets, and is robust against the choice of hyperparameters (e.g. the
preset number of pseudo domains). Furthermore, TUNIT can be easily extended to
semi-supervised learning with a few labeled data.
- Abstract(参考訳): 最近の画像から画像への変換モデルは、本質的にイメージレベル(入力出力ペア)またはセットレベル(ドメインラベル)の監督を必要とする。
しかし、セットレベルの監視でさえ、実際にはデータ収集にとって深刻なボトルネックとなる可能性がある。
本稿では、画像から画像への変換を、完全に教師なしの設定、すなわち、ペア画像もドメインラベルも取り扱う。
そこで本研究では、画像領域を分離し、入力画像を推定領域に変換する、真の教師なしイメージ・ツー・イメージ翻訳モデル(TUNIT)を提案する。
実験結果から,本モデルは,フルラベルで訓練されたセットレベルの教師付きモデルと同等あるいはそれ以上の性能を達成でき,様々なデータセットでよく一般化でき,ハイパーパラメータの選択(擬似ドメインのプリセット数など)に対して堅牢であることが示された。
さらに、TUNITはラベル付きデータでセミ教師付き学習に容易に拡張できる。
関連論文リスト
- WIDIn: Wording Image for Domain-Invariant Representation in Single-Source Domain Generalization [63.98650220772378]
We present WIDIn, Wording Images for Domain-Invariant representation, to disentangleative discriminative visual representation。
まず、ドメイン固有の言語を適応的に識別し、削除するために使用可能な、きめ細かいアライメントを組み込んだ言語を推定する。
WIDInは、CLIPのような事前訓練された視覚言語モデルと、MoCoやBERTのような個別訓練されたユニモーダルモデルの両方に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-05-28T17:46:27Z) - A Semi-Paired Approach For Label-to-Image Translation [6.888253564585197]
ラベル・ツー・イメージ翻訳のための半教師付き(半ペア)フレームワークを初めて紹介する。
半ペア画像設定では、小さなペアデータとより大きなペア画像とラベルのセットにアクセスすることができる。
本稿では,この共有ネットワークのためのトレーニングアルゴリズムを提案し,非表現型クラスに着目した希少なクラスサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-23T16:13:43Z) - GP-UNIT: Generative Prior for Versatile Unsupervised Image-to-Image
Translation [103.54337984566877]
GP-UNIT(Generative Prior-Guided Unsupervised Image-to-image Translation)を新たに導入する。
GP-UNITは、近接ドメインと遠方のドメインの間で有効な翻訳を行うことができる。
我々は,最先端の翻訳モデルよりも頑健で高品質で多種多様な翻訳におけるGP-UNITの優位性を検証した。
論文 参考訳(メタデータ) (2023-06-07T17:59:22Z) - LANIT: Language-Driven Image-to-Image Translation for Unlabeled Data [39.421312439022316]
我々はLANITと呼ばれるLANguage-driven Image-to-image Translationモデルを提案する。
画像と属性の類似性はサンプル単位のドメインラベルを示す。
いくつかの標準ベンチマークの実験では、LANITは既存のモデルに匹敵する、あるいは優れた性能を達成している。
論文 参考訳(メタデータ) (2022-08-31T14:30:00Z) - Masked Unsupervised Self-training for Zero-shot Image Classification [98.23094305347709]
Masked Unsupervised Self-Training (MUST)は、疑似ラベルと生画像という2つの異なる、補完的な監督源を活用する新しいアプローチである。
MUSTはCLIPを大きなマージンで改善し、教師なしと教師なしの分類のパフォーマンスギャップを狭める。
論文 参考訳(メタデータ) (2022-06-07T02:03:06Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - COCO-FUNIT: Few-Shot Unsupervised Image Translation with a Content
Conditioned Style Encoder [70.23358875904891]
教師なし画像画像変換は、与えられた領域内の画像と異なる領域内の類似画像とのマッピングを学習することを目的としている。
入力画像に条件付けされたサンプル画像のスタイル埋め込みを計算し、新しい数ショット画像変換モデルCOCO-FUNITを提案する。
本モデルは,コンテンツ損失問題に対処する上での有効性を示す。
論文 参考訳(メタデータ) (2020-07-15T02:01:14Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。