論文の概要: Transductive Zero-Shot Learning using Cross-Modal CycleGAN
- arxiv url: http://arxiv.org/abs/2011.06850v1
- Date: Fri, 13 Nov 2020 10:37:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 23:25:35.599303
- Title: Transductive Zero-Shot Learning using Cross-Modal CycleGAN
- Title(参考訳): クロスモーダルサイクルGANを用いたトランスダクティブゼロショット学習
- Authors: Patrick Bordes, Eloi Zablocki, Benjamin Piwowarski, Patrick Gallinari
- Abstract要約: Computer Visionでは、ゼロショット学習(ZSL)は、未確認のクラスを分類することを目的としている。
我々は、ImageNet T-ZSLタスクにおいて、Cross-Modal CycleGANモデル(CM-GAN)の有効性を示す。
我々は,MS COCOにおけるゼロショット文対画像マッチングという新しいタスクを提案する。
- 参考スコア(独自算出の注目度): 20.909848268680356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Computer Vision, Zero-Shot Learning (ZSL) aims at classifying unseen
classes -- classes for which no matching training image exists. Most of ZSL
works learn a cross-modal mapping between images and class labels for seen
classes. However, the data distribution of seen and unseen classes might
differ, causing a domain shift problem. Following this observation,
transductive ZSL (T-ZSL) assumes that unseen classes and their associated
images are known during training, but not their correspondence. As current
T-ZSL approaches do not scale efficiently when the number of seen classes is
high, we tackle this problem with a new model for T-ZSL based upon CycleGAN.
Our model jointly (i) projects images on their seen class labels with a
supervised objective and (ii) aligns unseen class labels and visual exemplars
with adversarial and cycle-consistency objectives. We show the efficiency of
our Cross-Modal CycleGAN model (CM-GAN) on the ImageNet T-ZSL task where we
obtain state-of-the-art results. We further validate CM-GAN on a language
grounding task, and on a new task that we propose: zero-shot sentence-to-image
matching on MS COCO.
- Abstract(参考訳): Computer Visionでは、ゼロショット学習(ZSL)は、未確認のクラスを分類することを目的としている。
ZSLの作業の多くは、画像とクラスラベルの間のクロスモーダルマッピングを学習している。
しかし、見知らぬクラスのデータ分布は異なる可能性があり、ドメインシフトの問題を引き起こす。
この観察の後、トランスダクティブZSL(T-ZSL)は、未確認のクラスとその関連画像が訓練中に知られているが、それらの対応は知られていないと仮定する。
現在のT-ZSLアプローチは、見かけのクラス数が多い場合に効率よくスケールしないので、CycleGANに基づくT-ZSLの新しいモデルでこの問題に取り組む。
私たちのモデルは共同で
(i)監視対象の視認されたクラスラベルに画像を投影し、
(ii) 目立たないクラスラベルと視覚的な例を、敵対的および周期的目的と一致させる。
我々はImageNet T-ZSLタスクにおいて,Cross-Modal CycleGANモデル(CM-GAN)の有効性を示す。
CM-GANを言語基盤タスクで検証し,MS COCOにおけるゼロショット文対画像マッチングという新たなタスクを提案する。
関連論文リスト
- Zero-Shot Learning by Harnessing Adversarial Samples [52.09717785644816]
本稿では,HAS(Harnessing Adversarial Samples)によるZSL(Zero-Shot Learning)アプローチを提案する。
HASは3つの重要な側面を考慮に入れた敵の訓練を通じてZSLを前進させる。
本稿では,ZSLと一般化ゼロショット学習(GZSL)の両シナリオにおいて,敵対的サンプルアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-01T06:19:13Z) - Mutual Balancing in State-Object Components for Compositional Zero-Shot
Learning [0.0]
合成ゼロショット学習(CZSL)は、目に見えない状態や物体から未知の合成を認識することを目的としている。
そこで本研究では,CZSLのSTate-Object Components (MUST) におけるMUtual Balanceと呼ばれる新しい手法を提案する。
我々のアプローチは、MIT-States、UT-Zappos、C-GQAといった基本的なCZSLフレームワークと組み合わせることで、最先端のCZSLよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-11-19T10:21:22Z) - Wave-SAN: Wavelet based Style Augmentation Network for Cross-Domain
Few-Shot Learning [95.78635058475439]
クロスドメイン少ショット学習は、一般的な自然画像から新しいドメイン固有のターゲットカテゴリへ知識を伝達することを目的としている。
本稿では、ソースデータセットのスタイル分布を分散させることにより、CD-FSLの問題点を考察する。
我々のモデルを視覚的スタイルに堅牢にするために、低周波成分のスタイルを交換することで、ソースイメージを拡張します。
論文 参考訳(メタデータ) (2022-03-15T05:36:41Z) - Multi-Head Self-Attention via Vision Transformer for Zero-Shot Learning [11.66422653137002]
本稿では,ゼロショット学習の課題設定における注意に基づくモデルを提案し,未知のクラス認識に有用な属性を学習する。
本手法では,視覚変換器に適応したアテンション機構を用いて,画像から小さなパッチに分割することで識別属性をキャプチャし,学習する。
論文 参考訳(メタデータ) (2021-07-30T19:08:44Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - What Remains of Visual Semantic Embeddings [0.618778092044887]
標準のImageNetベンチマークにおける構造欠陥を回避するため、ZSLタスクにタイレッドイメージネットの分割を導入する。
我々は,ZSLのための統合フレームワークを構築し,コントラスト学習を事前学習とし,セマンティックな情報漏洩を保証している。
我々の研究は、意味推論が決定的なZSL設定上で視覚的セマンティック埋め込みモデルを評価するのに公平である。
論文 参考訳(メタデータ) (2021-07-26T06:55:11Z) - Task Aligned Generative Meta-learning for Zero-shot Learning [64.16125851588437]
ゼロショット学習のためのタスク整合型ジェネラティブメタラーニングモデル(TGMZ)の提案
TGMZはバイアスのあるトレーニングを緩和し、メタZSLが多様な分布を含む現実世界のデータセットに対応できるようにする。
最先端アルゴリズムとの比較により,awa1,awa2,cub,apyデータセット上でtgmzが達成した2.1%,3.0%,2.5%,7.6%の改善が示された。
論文 参考訳(メタデータ) (2021-03-03T05:18:36Z) - A Multi-class Approach -- Building a Visual Classifier based on Textual
Descriptions using Zero-Shot Learning [0.34265828682659694]
機械学習の主なハードル、すなわちデータの不足と分類モデルの制約付き予測を克服する。
特定のクラスに対して学習するのではなく、ラベル付き画像をテキスト記述にマッピングすることで分類器を訓練する。
論文 参考訳(メタデータ) (2020-11-18T12:06:55Z) - Generalized Continual Zero-Shot Learning [7.097782028036196]
ゼロショット学習(ZSL)は、クラス記述に基づいて、見知らぬクラスから見つからないクラスに知識を移すことによって、目に見えないクラスを分類することを目的としている。
本稿では,タスクの形式でクラスが順次到着するZSLについて,より汎用的で実用的な設定を提案する。
我々は、知識蒸留と、それ以前のタスクからの少数のサンプルの保存と再生を、小さなエピソードメモリを用いて行っている。
論文 参考訳(メタデータ) (2020-11-17T08:47:54Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - AdarGCN: Adaptive Aggregation GCN for Few-Shot Learning [112.95742995816367]
FSFSLと呼ばれる新しい数発のスナップショット・ラーニング・セッティングを提案する。
FSFSLでは、ソースクラスとターゲットクラスの両方に限られたトレーニングサンプルがある。
また,無関係な画像を削除するためのグラフ畳み込みネットワーク (GCN) ベースのラベルデノイング (LDN) 手法を提案する。
論文 参考訳(メタデータ) (2020-02-28T10:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。