論文の概要: Classifier Crafting: Turn Your ConvNet into a Zero-Shot Learner!
- arxiv url: http://arxiv.org/abs/2103.11112v1
- Date: Sat, 20 Mar 2021 06:26:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:35:22.289685
- Title: Classifier Crafting: Turn Your ConvNet into a Zero-Shot Learner!
- Title(参考訳): classifier crafting: convnetをゼロショット学習者に変える!
- Authors: Jacopo Cavazza
- Abstract要約: 畳み込みニューラルネットワークをゼロショット学習器にキャストすることで,ゼロショット学習(zsl)に取り組む。
我々は、これらの固定分類規則に一致するように、観測されたクラスのデータ駆動およびZSL関連機能表現を学習する。
ZSL推論は、私たちが学んだのと全く同じ表現を維持しながら、テスト時に分類ルールのプールを拡大することで実行できます。
- 参考スコア(独自算出の注目度): 5.3556221126231085
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Zero-shot learning (ZSL), we classify unseen categories using textual
descriptions about their expected appearance when observed (class embeddings)
and a disjoint pool of seen classes, for which annotated visual data are
accessible. We tackle ZSL by casting a "vanilla" convolutional neural network
(e.g. AlexNet, ResNet-101, DenseNet-201 or DarkNet-53) into a zero-shot
learner. We do so by crafting the softmax classifier: we freeze its weights
using fixed seen classification rules, either semantic (seen class embeddings)
or visual (seen class prototypes). Then, we learn a data-driven and
ZSL-tailored feature representation on seen classes only to match these fixed
classification rules. Given that the latter seamlessly generalize towards
unseen classes, while requiring not actual unseen data to be computed, we can
perform ZSL inference by augmenting the pool of classification rules at test
time while keeping the very same representation we learnt: nowhere re-training
or fine-tuning on unseen data is performed. The combination of semantic and
visual crafting (by simply averaging softmax scores) improves prior
state-of-the-art methods in benchmark datasets for standard, inductive ZSL.
After rebalancing predictions to better handle the joint inference over seen
and unseen classes, we outperform prior generalized, inductive ZSL methods as
well. Also, we gain interpretability at no additional cost, by using neural
attention methods (e.g., grad-CAM) as they are. Code will be made publicly
available.
- Abstract(参考訳): ゼロショット学習(ZSL)では,期待される外観のテキスト記述(クラス埋め込み)と,注釈付き視覚データにアクセス可能な授業の非結合プールを用いて,未知のカテゴリを分類する。
我々は「バニラ」畳み込みニューラルネットワーク(例えば、)をキャストすることでZSLに取り組む。
AlexNet, ResNet-101, DenseNet-201, DarkNet-53) はゼロショット学習者になる。
私たちは、softmax分類器を作成して、その重み付けを固定視された分類規則(セマンティクス(seen class embeddeds)またはビジュアル(seen class prototypes)を使用して凍結します。
そして,データ駆動型とZSL対応の特徴表現を,これらの固定分類規則に適合するように学習する。
後者が目に見えないクラスに対してシームレスに一般化されることを考えると、実際の目に見えないデータを計算することなく、テスト時に分類ルールのプールを拡大し、学習したのと全く同じ表現を保ちながらZSL推論を行うことができる。
セマンティックとビジュアルクラフトの組み合わせ(ソフトマックススコアを平均化することで)は、標準のインダクティブZSLのベンチマークデータセットにおける最先端の手法を改善する。
既見および未発見のクラスに対する合同推論をよりうまく扱うために予測を再バランスした後、私たちはまた、事前の一般化された帰納的zslメソッドよりも優れています。
また,ニューラルアテンション法(grad-camなど)をそのまま使用することにより,追加コストで解釈可能となる。
コードは公開される予定だ。
関連論文リスト
- A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Data-Free Generalized Zero-Shot Learning [45.86614536578522]
データフリーゼロショット学習(DFZSL)のための汎用フレームワークを提案する。
我々のフレームワークは、一般化ZSLの5つの一般的なベンチマークと、ベース・ツー・ニューZSLの11のベンチマークで評価されている。
論文 参考訳(メタデータ) (2024-01-28T13:26:47Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Learning without Seeing nor Knowing: Towards Open Zero-Shot Learning [27.283748476678117]
一般化されたゼロショット学習(GZSL)では、クラス埋め込みを利用して見えないカテゴリを予測することができる。
オープンワールド設定に向けてGZSLを拡張するために,Open Zero-Shot Learning (OZSL)を提案する。
我々はOZSLを、未知のカテゴリのインスタンスを拒否しながら、見知らぬクラスを認識できる問題として定式化する。
論文 参考訳(メタデータ) (2021-03-23T10:30:50Z) - Counterfactual Zero-Shot and Open-Set Visual Recognition [95.43275761833804]
Zero-Shot Learning (ZSL) と Open-Set Recognition (OSR) の両方に対する新しい反実用フレームワークを提案する。
我々の考えは、目に見えないクラスのための生成されたサンプルは、しばしば真の分布から外れているという観察に由来する。
当社のフレームワークが見掛け/見当たらない不均衡を効果的に緩和し,全体的なパフォーマンスを大幅に向上させることを示す。
論文 参考訳(メタデータ) (2021-03-01T10:20:04Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Attribute Propagation Network for Graph Zero-shot Learning [57.68486382473194]
属性伝達ネットワーク (APNet) を導入し, 1) クラス毎に属性ベクトルを生成するグラフ伝搬モデルと, 2) パラメータ化隣人 (NN) 分類器から構成する。
APNetは、2つのゼロショット学習設定と5つのベンチマークデータセットによる実験で、魅力的なパフォーマンスまたは新しい最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-24T16:53:40Z) - Information Bottleneck Constrained Latent Bidirectional Embedding for
Zero-Shot Learning [59.58381904522967]
本稿では,密な視覚-意味的結合制約を持つ埋め込み型生成モデルを提案する。
視覚空間と意味空間の両方の埋め込みパラメトリック分布を校正する統合潜在空間を学習する。
本手法は, 画像のラベルを生成することにより, トランスダクティブZSL設定に容易に拡張できる。
論文 参考訳(メタデータ) (2020-09-16T03:54:12Z) - Leveraging Seen and Unseen Semantic Relationships for Generative
Zero-Shot Learning [14.277015352910674]
新たな意味正規化損失(SR-Loss)を取り入れた知識伝達を明示的に行う生成モデルを提案する。
7つのベンチマークデータセットの実験は、従来の最先端アプローチと比較してLsrGANの優位性を示している。
論文 参考訳(メタデータ) (2020-07-19T01:25:53Z) - Generative Adversarial Zero-shot Learning via Knowledge Graphs [32.42721467499858]
本稿では,知識グラフ(KG)にリッチセマンティクスを組み込むことにより,KG-GANという新たな生成ZSL手法を提案する。
具体的には、グラフニューラルネットワークに基づいて、クラスビューと属性ビューの2つのビューからKGをエンコードする。
各ノードに対してよく学習されたセマンティックな埋め込み(視覚圏を表す)を用いて、GANを活用して、目に見えないクラスの魅力的な視覚的特徴を合成する。
論文 参考訳(メタデータ) (2020-04-07T03:55:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。