論文の概要: Semi-Supervised Learning with Taxonomic Labels
- arxiv url: http://arxiv.org/abs/2111.11595v1
- Date: Tue, 23 Nov 2021 00:50:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 05:18:51.827754
- Title: Semi-Supervised Learning with Taxonomic Labels
- Title(参考訳): タコノミクスラベルを用いた半教師付き学習
- Authors: Jong-Chyi Su and Subhransu Maji
- Abstract要約: 細粒度領域で画像分類器を訓練するために,粗い分類ラベルを組み込む手法を提案する。
3つの王国にまたがる810種からなるSemi-iNatデータセットでは、フィラムラベルを組み込むことで、種レベルの分類精度が6%向上する。
本稿では,階層構造に導かれる未ラベル画像の集合から,ロバスト性を改善するための関連データを選択する手法を提案する。
- 参考スコア(独自算出の注目度): 42.02670649470055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose techniques to incorporate coarse taxonomic labels to train image
classifiers in fine-grained domains. Such labels can often be obtained with a
smaller effort for fine-grained domains such as the natural world where
categories are organized according to a biological taxonomy. On the Semi-iNat
dataset consisting of 810 species across three Kingdoms, incorporating Phylum
labels improves the Species level classification accuracy by 6% in a transfer
learning setting using ImageNet pre-trained models. Incorporating the
hierarchical label structure with a state-of-the-art semi-supervised learning
algorithm called FixMatch improves the performance further by 1.3%. The
relative gains are larger when detailed labels such as Class or Order are
provided, or when models are trained from scratch. However, we find that most
methods are not robust to the presence of out-of-domain data from novel
classes. We propose a technique to select relevant data from a large collection
of unlabeled images guided by the hierarchy which improves the robustness.
Overall, our experiments show that semi-supervised learning with coarse
taxonomic labels are practical for training classifiers in fine-grained
domains.
- Abstract(参考訳): 細粒度領域で画像分類器を訓練するための粗い分類ラベルを組み込む手法を提案する。
このようなラベルは、生物分類に基づいて分類が組織される自然界のような細粒度ドメインに対して、より小さな努力で得られることが多い。
3つの王国にまたがる810種からなるSemi-iNatデータセットでは、ImageNet事前学習モデルを用いて、種レベルの分類精度を6%向上させる。
FixMatchと呼ばれる最先端の半教師付き学習アルゴリズムで階層ラベル構造を組み込むことで、パフォーマンスがさらに1.3%向上する。
クラスや順序などの詳細なラベルが提供されたり、モデルをスクラッチからトレーニングした場合には、相対的なゲインが大きくなる。
しかし、ほとんどの手法は、新しいクラスのドメイン外データの存在に対して堅牢ではない。
本稿では,階層構造に導かれる未ラベル画像の集合から,ロバスト性を改善するための関連データを選択する手法を提案する。
本実験は, 分類器を微粒化領域で訓練するために, 粗い分類ラベルを用いた半教師付き学習が実用的であることを示す。
関連論文リスト
- Enhancing Instance-Level Image Classification with Set-Level Labels [12.778150812879034]
設定レベルラベルを活用することで、インスタンスレベルの画像分類を強化する新しい手法を提案する。
自然画像データセットと病理画像データセットの2つのカテゴリについて実験を行った。
本アルゴリズムは,病理画像分類ベンチマークにおいて最強の基準値と比較して,分類精度が13%向上した。
論文 参考訳(メタデータ) (2023-11-09T03:17:03Z) - Fuzzy Overclustering: Semi-Supervised Classification of Fuzzy Labels
with Overclustering and Inverse Cross-Entropy [1.6392706389599345]
ファジィラベルの半教師付き分類を扱うための新しいフレームワークを提案する。
これは、これらのファジィラベルのサブ構造を検出するために、オーバークラスタリング(overclustering)という考え方に基づいている。
本研究では,ファジィラベルを用いた実世界のプランクトンデータに適用した場合,従来の半教師付き手法よりも優れたフレームワークを示す。
論文 参考訳(メタデータ) (2021-10-13T10:50:50Z) - Coarse2Fine: Fine-grained Text Classification on Coarsely-grained
Annotated Data [22.81068960545234]
本稿では,粗い注釈付きデータに対して,きめ細かい分類を行うことを目的とした,粗い粒度分類と呼ばれる新しい問題を提案する。
新しいきめ細かい人間のアノテーションを求める代わりに、ラベル表面の名前のみを人間の手引きとして活用することにしました。
我々のフレームワークは、微調整された生成モデルを用いて、擬似学習データをサンプリングし、分類器を訓練し、実際のラベルなしデータをブートストラップしてモデル修正を行う。
論文 参考訳(メタデータ) (2021-09-22T17:29:01Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Crop mapping from image time series: deep learning with multi-scale
label hierarchies [22.58506027920305]
専門家の知識を活用し,希少作物の分布を著しく改善する作物分類法を開発した。
3レベルラベル階層は畳み込みリカレントニューラルネットワーク(convRNN)に符号化される
我々は,提案手法を新たに公開する大規模データセット上で検証する。
論文 参考訳(メタデータ) (2021-02-17T15:27:49Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - An Empirical Study on Large-Scale Multi-Label Text Classification
Including Few and Zero-Shot Labels [49.036212158261215]
大規模なMulti-label Text Classification (LMTC) は、幅広い自然言語処理 (NLP) アプリケーションを持つ。
Label-Wise Attention Networks (LWANs) を用いた最新のLMTCモデル
確率的ラベル木(PLT)に基づく階層的手法がLWANより優れていることを示す。
BERTとLWANを組み合わせた最先端手法を提案する。
論文 参考訳(メタデータ) (2020-10-04T18:55:47Z) - Joint Visual and Temporal Consistency for Unsupervised Domain Adaptive
Person Re-Identification [64.37745443119942]
本稿では,局所的なワンホット分類とグローバルなマルチクラス分類を組み合わせることで,視覚的・時間的整合性を両立させる。
3つの大規模ReIDデータセットの実験結果は、教師なしと教師なしの両方のドメイン適応型ReIDタスクにおいて提案手法の優位性を示す。
論文 参考訳(メタデータ) (2020-07-21T14:31:27Z) - Hierarchical Image Classification using Entailment Cone Embeddings [68.82490011036263]
まずラベル階層の知識を任意のCNNベースの分類器に注入する。
画像からの視覚的セマンティクスと組み合わせた外部セマンティクス情報の利用が全体的な性能を高めることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-02T10:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。