論文の概要: Semi-supervised Learning for Few-shot Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2003.13853v2
- Date: Thu, 2 Apr 2020 09:09:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 08:12:10.529891
- Title: Semi-supervised Learning for Few-shot Image-to-Image Translation
- Title(参考訳): 半教師付き学習による少数画像から画像への翻訳
- Authors: Yaxing Wang, Salman Khan, Abel Gonzalez-Garcia, Joost van de Weijer,
Fahad Shahbaz Khan
- Abstract要約: 本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
- 参考スコア(独自算出の注目度): 89.48165936436183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the last few years, unpaired image-to-image translation has witnessed
remarkable progress. Although the latest methods are able to generate realistic
images, they crucially rely on a large number of labeled images. Recently, some
methods have tackled the challenging setting of few-shot image-to-image
translation, reducing the labeled data requirements for the target domain
during inference. In this work, we go one step further and reduce the amount of
required labeled data also from the source domain during training. To do so, we
propose applying semi-supervised learning via a noise-tolerant pseudo-labeling
procedure. We also apply a cycle consistency constraint to further exploit the
information from unlabeled images, either from the same dataset or external.
Additionally, we propose several structural modifications to facilitate the
image translation task under these circumstances. Our semi-supervised method
for few-shot image translation, called SEMIT, achieves excellent results on
four different datasets using as little as 10% of the source labels, and
matches the performance of the main fully-supervised competitor using only 20%
labeled data. Our code and models are made public at:
https://github.com/yaxingwang/SEMIT.
- Abstract(参考訳): ここ数年、画像から画像への翻訳は目覚ましい進歩を遂げてきた。
最新の手法は現実的な画像を生成することができるが、それらは非常に多くのラベル付き画像に依存している。
近年,画像から画像への変換の難しさに対処する手法がいくつかあり,推論時に対象領域のラベル付きデータ要求を低減している。
この作業では、さらに一歩進んで、トレーニング中のソースドメインからも必要なラベル付きデータの量を削減します。
そこで本研究では,ノイズ耐性の擬似ラベル処理による半教師あり学習を提案する。
また、同じデータセットまたは外部からのラベルのない画像からの情報を更に活用するために、サイクル一貫性の制約を適用します。
また,このような状況下での画像翻訳作業を容易にするため,いくつかの構造変更を提案する。
提案手法はSEMITと呼ばれ,ソースラベルの10%以下を用いて4つのデータセットに対して優れた結果を得るとともに,20%のラベル付きデータを用いて,主要な完全教師付きコンペティタのパフォーマンスを一致させる。
私たちのコードとモデルは、https://github.com/yaxingwang/SEMIT.comで公開されています。
関連論文リスト
- An image speaks a thousand words, but can everyone listen? On image transcreation for cultural relevance [53.974497865647336]
われわれは、画像の翻訳を文化的に意味のあるものにするための第一歩を踏み出した。
タスクを行うために、最先端の生成モデルからなる3つのパイプラインを構築します。
我々は,翻訳画像の人間による評価を行い,文化的意義と保存の意味を評価する。
論文 参考訳(メタデータ) (2024-04-01T17:08:50Z) - Learning from Rich Semantics and Coarse Locations for Long-tailed Object
Detection [157.18560601328534]
RichSemは、正確なバウンディングボックスを必要とせずに、粗い場所からリッチなセマンティクスを学ぶための堅牢な方法である。
我々はこれらのソフトセマンティクスを学習し、長い尾を持つ物体検出のための特徴表現を強化するために、セマンティクス分岐を検出器に追加する。
本手法は,複雑なトレーニングやテスト手順を必要とせず,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-10-18T17:59:41Z) - Few-shot Class-Incremental Semantic Segmentation via Pseudo-Labeling and
Knowledge Distillation [3.4436201325139737]
セマンティックセグメンテーションモデルのための新しいクラスをいくつかの例から学習する問題に対処する。
限られたデータから学習するために、数発のトレーニングアノテーションを増強する擬似ラベル方式を提案する。
上記のステップを、統一的な学習目標を持つ単一の畳み込みニューラルネットワークに統合する。
論文 参考訳(メタデータ) (2023-08-05T05:05:37Z) - A Semi-Paired Approach For Label-to-Image Translation [6.888253564585197]
ラベル・ツー・イメージ翻訳のための半教師付き(半ペア)フレームワークを初めて紹介する。
半ペア画像設定では、小さなペアデータとより大きなペア画像とラベルのセットにアクセスすることができる。
本稿では,この共有ネットワークのためのトレーニングアルゴリズムを提案し,非表現型クラスに着目した希少なクラスサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-23T16:13:43Z) - Semi-Supervised Image Captioning by Adversarially Propagating Labeled
Data [95.0476489266988]
本稿では、画像キャプションモデルの一般化を改善するための、新しいデータ効率半教師付きフレームワークを提案する。
提案手法は,キャプタにペアデータから学習し,段階的に未ペアデータの関連付けを行うよう訓練する。
1)画像ベースと(2)高密度領域ベースキャプションデータセットの両方を総合的かつ包括的な実験結果とし,それに続いて,少ないペアリングデータセットの包括的分析を行った。
論文 参考訳(メタデータ) (2023-01-26T15:25:43Z) - LANIT: Language-Driven Image-to-Image Translation for Unlabeled Data [39.421312439022316]
我々はLANITと呼ばれるLANguage-driven Image-to-image Translationモデルを提案する。
画像と属性の類似性はサンプル単位のドメインラベルを示す。
いくつかの標準ベンチマークの実験では、LANITは既存のモデルに匹敵する、あるいは優れた性能を達成している。
論文 参考訳(メタデータ) (2022-08-31T14:30:00Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - Rethinking the Truly Unsupervised Image-to-Image Translation [29.98784909971291]
教師なし画像画像変換モデル(TUNIT)は、画像領域を分離し、入力画像を推定領域に変換する。
実験結果から、TUNITはフルラベルでトレーニングされたセットレベルの教師付きモデルと同等またはそれ以上のパフォーマンスを達成することが示された。
TUNITはラベル付きデータで簡単にセミ教師付き学習に拡張できる。
論文 参考訳(メタデータ) (2020-06-11T15:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。