論文の概要: Toward Zero-Shot Unsupervised Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2007.14050v1
- Date: Tue, 28 Jul 2020 08:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 02:29:42.582531
- Title: Toward Zero-Shot Unsupervised Image-to-Image Translation
- Title(参考訳): ゼロショット教師なし画像間翻訳に向けて
- Authors: Yuanqi Chen, Xiaoming Yu, Shan Liu, Ge Li
- Abstract要約: ゼロショットで教師なしのイメージ・ツー・イメージ翻訳フレームワークを提案する。
セマンティック属性によって区切られた空間を利用するための2つの戦略を導入する。
我々のフレームワークは、ゼロショット分類やファッションデザインなど、多くのタスクに適用できる。
- 参考スコア(独自算出の注目度): 34.51633300727676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown remarkable success in unsupervised image-to-image
translation. However, if there has no access to enough images in target
classes, learning a mapping from source classes to the target classes always
suffers from mode collapse, which limits the application of the existing
methods. In this work, we propose a zero-shot unsupervised image-to-image
translation framework to address this limitation, by associating categories
with their side information like attributes. To generalize the translator to
previous unseen classes, we introduce two strategies for exploiting the space
spanned by the semantic attributes. Specifically, we propose to preserve
semantic relations to the visual space and expand attribute space by utilizing
attribute vectors of unseen classes, thus encourage the translator to explore
the modes of unseen classes. Quantitative and qualitative results on different
datasets demonstrate the effectiveness of our proposed approach. Moreover, we
demonstrate that our framework can be applied to many tasks, such as zero-shot
classification and fashion design.
- Abstract(参考訳): 近年の研究では、教師なし画像から画像への翻訳が著しく成功した。
しかし、ターゲットクラスで十分なイメージにアクセスできない場合、ソースクラスからターゲットクラスへのマッピングを学習することは、常にモード崩壊に悩まされ、既存のメソッドの適用が制限される。
本研究では,属性などの属性情報とカテゴリを関連付けることで,この制限に対処するため,ゼロショットの非教師なし画像翻訳フレームワークを提案する。
従来の未確認クラスへの翻訳を一般化するために,意味的属性にまたがる空間を利用するための2つの戦略を導入する。
具体的には,視覚空間に対する意味的関係を保ち,非知覚クラスの属性ベクトルを利用して属性空間を広げることを提案する。
異なるデータセット上での定量的・定性的な結果から,提案手法の有効性を示す。
さらに,ゼロショット分類やファッションデザインなど,多くのタスクにフレームワークを適用可能であることを示す。
関連論文リスト
- StegoGAN: Leveraging Steganography for Non-Bijective Image-to-Image Translation [18.213286385769525]
CycleGANベースの手法は、生成した画像のミスマッチした情報を隠して、サイクル一貫性の目的をバイパスすることが知られている。
本稿では,ステガノグラフィーを利用した新しいモデルであるStegoGANを紹介した。
我々のアプローチは、追加の後処理や監督を必要とすることなく、翻訳画像のセマンティック一貫性を高める。
論文 参考訳(メタデータ) (2024-03-29T12:23:58Z) - DualCoOp++: Fast and Effective Adaptation to Multi-Label Recognition
with Limited Annotations [79.433122872973]
低ラベル体制における多ラベル画像認識は、大きな課題と実践的重要性の課題である。
我々は、何百万もの補助的な画像テキストペアで事前訓練されたテキストと視覚的特徴の強力なアライメントを活用する。
Evidence-guided Dual Context Optimization (DualCoOp++) という,効率的かつ効果的なフレームワークを導入する。
論文 参考訳(メタデータ) (2023-08-03T17:33:20Z) - I2DFormer: Learning Image to Document Attention for Zero-Shot Image
Classification [123.90912800376039]
オンラインテキスト文書(例えばウィキペディア)には、オブジェクトクラスに関する豊富な視覚的記述が含まれている。
画像や文書のエンコードを共同で学習するトランスフォーマーベースのZSLフレームワークであるI2DFormerを提案する。
提案手法は,画像領域に文書語を接地可能な高解釈可能な結果をもたらす。
論文 参考訳(メタデータ) (2022-09-21T12:18:31Z) - A Style-aware Discriminator for Controllable Image Translation [10.338078700632423]
現在の画像から画像への変換は、トレーニング中に使用されるクラス以外の出力領域を制御しない。
本稿では,批判的かつ条件を提供するスタイルとして機能するスタイル認識型識別器を提案する。
複数のデータセットの実験では、提案モデルが現在の最先端画像から画像への変換方法より優れていることが確認されている。
論文 参考訳(メタデータ) (2022-03-29T09:13:33Z) - VGSE: Visually-Grounded Semantic Embeddings for Zero-Shot Learning [113.50220968583353]
ゼロショット学習のための識別的視覚特性を含むセマンティック埋め込みを発見することを提案する。
本モデルでは,画像の集合を視覚的類似性に応じて局所的な画像領域の集合に視覚的に分割する。
視覚的に接地されたセマンティック埋め込みは、様々なZSLモデルにまたがる単語埋め込みよりも、大きなマージンで性能を向上することを示した。
論文 参考訳(メタデータ) (2022-03-20T03:49:02Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - Improving Few-shot Learning with Weakly-supervised Object Localization [24.3569501375842]
画像のクラス関連領域から特徴を抽出してクラス表現を生成する新しいフレームワークを提案する。
提案手法は, miniImageNet および tieredImageNet ベンチマークにおいて,ベースライン数ショットモデルよりも優れている。
論文 参考訳(メタデータ) (2021-05-25T07:39:32Z) - Contrastive Learning for Unsupervised Image-to-Image Translation [10.091669091440396]
コントラスト学習に基づく教師なし画像から画像への翻訳手法を提案する。
一対の画像をランダムにサンプリングし、ジェネレータに元の構造を維持しながら、その外観を別の方向に変更するように訓練する。
実験結果から,本手法は視覚的品質と翻訳精度において,教師なしベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-05-07T08:43:38Z) - Mining Cross-Image Semantics for Weakly Supervised Semantic Segmentation [128.03739769844736]
2つのニューラルコアテンションを分類器に組み込んで、画像間のセマンティックな類似点と相違点をキャプチャする。
オブジェクトパターン学習の強化に加えて、コアテンションは他の関連する画像からのコンテキストを活用して、ローカライズマップの推論を改善することができる。
提案アルゴリズムは,これらすべての設定に対して新たな最先端性を設定し,その有効性と一般化性を示す。
論文 参考訳(メタデータ) (2020-07-03T21:53:46Z) - Hierarchical Image Classification using Entailment Cone Embeddings [68.82490011036263]
まずラベル階層の知識を任意のCNNベースの分類器に注入する。
画像からの視覚的セマンティクスと組み合わせた外部セマンティクス情報の利用が全体的な性能を高めることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-02T10:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。