論文の概要: From Generalized zero-shot learning to long-tail with class descriptors
- arxiv url: http://arxiv.org/abs/2004.02235v4
- Date: Wed, 4 Nov 2020 15:17:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 12:10:07.181456
- Title: From Generalized zero-shot learning to long-tail with class descriptors
- Title(参考訳): 一般化ゼロショット学習からクラス記述子付きロングテールへ
- Authors: Dvir Samuel, Yuval Atzmon and Gal Chechik
- Abstract要約: DRAGONは、クラス記述子を使ったロングテール学習のためのレイトフュージョンアーキテクチャである。
サンプルバイサンプルベースでヘッドクラスに対するバイアスを修正することを学ぶ。
CUB-LT, SUN-LT, AWA-LTをクラス記述付き長期学習用ベンチマークとして導入する。
- 参考スコア(独自算出の注目度): 28.507990669210876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data is predominantly unbalanced and long-tailed, but deep models
struggle to recognize rare classes in the presence of frequent classes. Often,
classes can be accompanied by side information like textual descriptions, but
it is not fully clear how to use them for learning with unbalanced long-tail
data. Such descriptions have been mostly used in (Generalized) Zero-shot
learning (ZSL), suggesting that ZSL with class descriptions may also be useful
for long-tail distributions. We describe DRAGON, a late-fusion architecture for
long-tail learning with class descriptors. It learns to (1) correct the bias
towards head classes on a sample-by-sample basis; and (2) fuse information from
class-descriptions to improve the tail-class accuracy. We also introduce new
benchmarks CUB-LT, SUN-LT, AWA-LT for long-tail learning with
class-descriptions, building on existing learning-with-attributes datasets and
a version of Imagenet-LT with class descriptors. DRAGON outperforms
state-of-the-art models on the new benchmark. It is also a new SoTA on existing
benchmarks for GFSL with class descriptors (GFSL-d) and standard (vision-only)
long-tailed learning ImageNet-LT, CIFAR-10, 100, and Places365.
- Abstract(参考訳): 現実世界のデータは主に不均衡で長い尾を持つが、深層モデルは頻繁なクラスの存在下で稀なクラスを認識するのに苦労している。
しばしば、クラスはテキスト記述のようなサイド情報を伴うことができるが、バランスの取れないロングテールデータで学習するためにそれを使う方法が完全には明確ではない。
このような記述は、主に(一般化)ゼロショット学習(ZSL)で使われており、クラス記述を持つZSLは、ロングテール分布にも有用であることを示している。
DRAGONは,クラス記述子を用いたロングテール学習のためのレイトフュージョンアーキテクチャである。
1)サンプル・バイ・サンプルベースでヘッドクラスに対するバイアスを補正し,(2)クラス記述からの情報を融合してテールクラスの精度を向上させる。
また,CUB-LT,SUN-LT,AWA-LTをクラス記述付き長期学習用として導入し,既存の学習属性データセットとクラス記述子付きImagenet-LTを導入した。
DRAGONは、新しいベンチマークで最先端モデルを上回っている。
また、GFSLの既存のベンチマークには、クラス記述子(GFSL-d)と標準(ビジョンのみ)の長期学習用ImageNet-LT、CIFAR-10、100、Places365がある。
関連論文リスト
- Data-Free Generalized Zero-Shot Learning [45.86614536578522]
データフリーゼロショット学習(DFZSL)のための汎用フレームワークを提案する。
我々のフレームワークは、一般化ZSLの5つの一般的なベンチマークと、ベース・ツー・ニューZSLの11のベンチマークで評価されている。
論文 参考訳(メタデータ) (2024-01-28T13:26:47Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Calibrating Class Activation Maps for Long-Tailed Visual Recognition [60.77124328049557]
本稿では,CNNの長期分布からネットワーク学習を改善するための2つの効果的な修正を提案する。
まず,ネットワーク分類器の学習と予測を改善するために,CAMC (Class Activation Map) モジュールを提案する。
第2に,長期化問題における表現学習における正規化分類器の利用について検討する。
論文 参考訳(メタデータ) (2021-08-29T05:45:03Z) - Zero-shot Learning with Class Description Regularization [10.739164530098755]
生成型ZSLモデルに対して,各カテゴリの記述により多くの注意を払うことを促す,新たな正規化形式を導入する。
実験結果から, 一般化ゼロショット認識・分類の課題において, 複数の最先端モデルの性能向上を実証した。
論文 参考訳(メタデータ) (2021-06-30T14:56:15Z) - Dynamic VAEs with Generative Replay for Continual Zero-shot Learning [1.90365714903665]
本稿では,タスクごとにサイズが拡大する新しいゼロショット学習(DVGR-CZSL)モデルを提案する。
ZSL(Zero-Shot Learning)を用いた逐次学習において,本手法が優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T10:56:43Z) - Large-Scale Zero-Shot Image Classification from Rich and Diverse Textual
Descriptions [5.3556221126231085]
ゼロショット学習(ZSL)のための授業のリッチで多様なテキスト記述がImageNetに与える影響について検討する。
各 ImageNet クラスと対応する Wikipedia 記事に一致する新しいデータセット ImageNet-Wiki を作成します。
授業記述としてこれらのウィキペディア記事を用いると、以前の作品よりもはるかに高いZSL性能が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T14:06:56Z) - Meta-Learned Attribute Self-Gating for Continual Generalized Zero-Shot
Learning [82.07273754143547]
トレーニング中に見られないカテゴリにモデルを一般化するためのメタ連続ゼロショット学習(MCZSL)アプローチを提案する。
属性の自己決定とスケールしたクラス正規化をメタラーニングベースのトレーニングと組み合わせることで、最先端の成果を上回ることができるのです。
論文 参考訳(メタデータ) (2021-02-23T18:36:14Z) - Feature Space Augmentation for Long-Tailed Data [74.65615132238291]
実世界のデータは、各クラスの周波数が典型的に異なるため、長い尾の分布に従うことが多い。
データ再サンプリングと拡張に関するクラスバランス損失と高度な手法は、データの不均衡問題を解決するためのベストプラクティスのひとつです。
提案手法は,多種多様なサンプルを持つクラスから学習した特徴量を用いて,特徴空間における表現不足のクラスを増大させることによって,長鎖問題に対処する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-09T06:38:00Z) - Learning to Segment the Tail [91.38061765836443]
実世界の視覚認識には、大規模な長い尾を持つデータの極端なサンプル不均衡を扱う必要がある。
我々は,LVISタスクの課題に対して,データ全体をバランスの取れた部分に分割し,各部分の征服に漸進的な学習を適用する,"分別/分別"戦略を提案する。
論文 参考訳(メタデータ) (2020-04-02T09:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。