論文の概要: Zero-Shot Learning from scratch (ZFS): leveraging local compositional
representations
- arxiv url: http://arxiv.org/abs/2010.13320v1
- Date: Thu, 22 Oct 2020 23:11:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 05:58:00.730592
- Title: Zero-Shot Learning from scratch (ZFS): leveraging local compositional
representations
- Title(参考訳): Zero-Shot Learning from scratch (ZFS): 局所的な構成表現を活用する
- Authors: Tristan Sylvain, Linda Petrini, R Devon Hjelm
- Abstract要約: ゼロショット分類は、訓練中にターゲットクラスからインスタンスが見えないような一般化タスクである。
テスト時間転送を可能にするために、各クラスは、属性やテキスト記述の形式で、意味情報で注釈付けされる。
イメージベンチマークで最高の絶対性能を達成するアプローチは、Imagenetで事前訓練されたエンコーダから抽出された機能に依存している。
我々はZFS(Zero-Shot Learning from scratch)を提案し、他のデータセットで微調整されたエンコーダの使用を明示的に禁止する。
- 参考スコア(独自算出の注目度): 25.449244103599106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot classification is a generalization task where no instance from the
target classes is seen during training. To allow for test-time transfer, each
class is annotated with semantic information, commonly in the form of
attributes or text descriptions. While classical zero-shot learning does not
explicitly forbid using information from other datasets, the approaches that
achieve the best absolute performance on image benchmarks rely on features
extracted from encoders pretrained on Imagenet. This approach relies on
hyper-optimized Imagenet-relevant parameters from the supervised classification
setting, entangling important questions about the suitability of those
parameters and how they were learned with more fundamental questions about
representation learning and generalization. To remove these distractors, we
propose a more challenging setting: Zero-Shot Learning from scratch (ZFS),
which explicitly forbids the use of encoders fine-tuned on other datasets. Our
analysis on this setting highlights the importance of local information, and
compositional representations.
- Abstract(参考訳): ゼロショット分類は、訓練中にターゲットクラスのインスタンスが見られない一般化タスクである。
テスト時間転送を可能にするために、各クラスは、属性やテキスト記述の形式で、意味情報で注釈付けされる。
古典的なゼロショット学習は、他のデータセットからの情報の使用を明示的に禁止していないが、イメージベンチマークで最高の絶対性能を達成するアプローチは、imagenetで事前トレーニングされたエンコーダから抽出された機能に依存している。
このアプローチは、教師付き分類設定からの超最適化画像ネット関連パラメータに依存し、それらのパラメータの適合性や、表現学習と一般化に関するより基本的な質問でどのように学習されたかについて重要な質問を絞った。
これらの邪魔をなくすため、より難しい設定を提案している。ゼロショット学習 from scratch (zfs)は、他のデータセットで微調整されたエンコーダの使用を明示的に禁止する。
この設定に関する分析は、局所的情報の重要性と構成的表現を強調している。
関連論文リスト
- Deep Semantic-Visual Alignment for Zero-Shot Remote Sensing Image Scene
Classification [26.340737217001497]
ゼロショット学習(ZSL)は、トレーニング中に見えない新しいクラスを識別する。
以前のZSLモデルは、主に言語モデルから抽出された手作業でラベル付けされた属性や単語の埋め込みに依存し、見受けられるクラスから新しいクラスに知識を伝達する。
本稿では,視覚的に検出可能な属性を自動的に収集することを提案する。属性と画像のセマンティック・視覚的類似性を記述することで,クラスごとの属性を予測する。
論文 参考訳(メタデータ) (2024-02-03T09:18:49Z) - Data-Free Generalized Zero-Shot Learning [45.86614536578522]
データフリーゼロショット学習(DFZSL)のための汎用フレームワークを提案する。
我々のフレームワークは、一般化ZSLの5つの一般的なベンチマークと、ベース・ツー・ニューZSLの11のベンチマークで評価されている。
論文 参考訳(メタデータ) (2024-01-28T13:26:47Z) - Text Descriptions are Compressive and Invariant Representations for
Visual Learning [63.3464863723631]
本研究では,クラスごとの複数の視覚的特徴に対する人間の理解に則って,頑健な数ショット学習環境では魅力的な性能が得られることを示す。
特に,SLR-AVD (Sparse Logistic Regression using Augmented Visual Descriptors) という新しい手法を導入する。
このメソッドはまず、まず大きな言語モデル(LLM)を介して各クラスの複数の視覚的記述を自動生成し、次にVLMを使用してこれらの記述を各画像の視覚的特徴埋め込みに変換し、最後に、これらの特徴の関連するサブセットを選択するためにスパースロジスティック回帰を使用する。
論文 参考訳(メタデータ) (2023-07-10T03:06:45Z) - Location-Aware Self-Supervised Transformers [74.76585889813207]
画像部品の相対的な位置を予測し,セマンティックセグメンテーションのためのネットワークを事前訓練する。
参照パッチのサブセットを問合せのサブセットにマスキングすることで,タスクの難しさを制御します。
実験により,この位置認識事前学習が,いくつかの難解なセマンティックセグメンテーションベンチマークに競合する表現をもたらすことが示された。
論文 参考訳(メタデータ) (2022-12-05T16:24:29Z) - Prefix Conditioning Unifies Language and Label Supervision [84.11127588805138]
学習した表現の一般化性を低減することにより,データセットのバイアスが事前学習に悪影響を及ぼすことを示す。
実験では、この単純な手法により、ゼロショット画像認識精度が向上し、画像レベルの分布シフトに対するロバスト性が向上することを示した。
論文 参考訳(メタデータ) (2022-06-02T16:12:26Z) - Region Semantically Aligned Network for Zero-Shot Learning [18.18665627472823]
本研究では、未確認クラスの局所的特徴をそれらの意味属性にマッピングする地域意味ネットワーク(RSAN)を提案する。
出力の特定の領域から各属性を取得し、これらの属性を認識に活用する。
いくつかの標準ZSLデータセットの実験では、提案したRSAN法の利点が示され、最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2021-10-14T03:23:40Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Large-Scale Zero-Shot Image Classification from Rich and Diverse Textual
Descriptions [5.3556221126231085]
ゼロショット学習(ZSL)のための授業のリッチで多様なテキスト記述がImageNetに与える影響について検討する。
各 ImageNet クラスと対応する Wikipedia 記事に一致する新しいデータセット ImageNet-Wiki を作成します。
授業記述としてこれらのウィキペディア記事を用いると、以前の作品よりもはるかに高いZSL性能が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T14:06:56Z) - Attribute Prototype Network for Zero-Shot Learning [113.50220968583353]
差別的グローバルな特徴と局所的な特徴を共同で学習するゼロショット表現学習フレームワークを提案する。
本モデルでは,画像中の属性の視覚的証拠を指摘し,画像表現の属性ローカライゼーション能力の向上を確認した。
論文 参考訳(メタデータ) (2020-08-19T06:46:35Z) - Weakly-supervised Object Localization for Few-shot Learning and
Fine-grained Few-shot Learning [0.5156484100374058]
少数のサンプルから新しい視覚カテゴリーを学習することを目的としている。
本稿では,自己認識型補完モジュール(SACモジュール)を提案する。
また,数発の分類のために,識別的深層記述子を選択するためのアクティブマスクも生成する。
論文 参考訳(メタデータ) (2020-03-02T14:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。