論文の概要: Fine-grained Classes and How to Find Them
- arxiv url: http://arxiv.org/abs/2406.11070v1
- Date: Sun, 16 Jun 2024 20:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 19:03:42.148472
- Title: Fine-grained Classes and How to Find Them
- Title(参考訳): きめ細かいクラスとその発見方法
- Authors: Matej Grcić, Artyom Gadetsky, Maria Brbić,
- Abstract要約: 粗いラベル付きデータからきめ細かいクラスを、きめ細かいレベルで監督せずに発見するFALCONを提案する。
FALCONは、未知のきめ細かいクラスと、粗いクラスときめ細かいクラスの間の基礎となる関係を同時に推論する。
8つの画像分類タスクと1つのセル分類タスクでFALCONを評価する。
- 参考スコア(独自算出の注目度): 1.3709465727733763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many practical applications, coarse-grained labels are readily available compared to fine-grained labels that reflect subtle differences between classes. However, existing methods cannot leverage coarse labels to infer fine-grained labels in an unsupervised manner. To bridge this gap, we propose FALCON, a method that discovers fine-grained classes from coarsely labeled data without any supervision at the fine-grained level. FALCON simultaneously infers unknown fine-grained classes and underlying relationships between coarse and fine-grained classes. Moreover, FALCON is a modular method that can effectively learn from multiple datasets labeled with different strategies. We evaluate FALCON on eight image classification tasks and a single-cell classification task. FALCON outperforms baselines by a large margin, achieving 22% improvement over the best baseline on the tieredImageNet dataset with over 600 fine-grained classes.
- Abstract(参考訳): 多くの実践的応用において、クラス間の微妙な違いを反映したきめ細かいラベルよりも粗いラベルが容易に利用できる。
しかし、既存の手法では、粗いラベルを利用して、きめ細かいラベルを教師なしで推測することはできない。
このギャップを埋めるため,細粒度レベルでの監督なしに粗いラベル付きデータから細粒度クラスを検出するFALCONを提案する。
FALCONは、未知のきめ細かいクラスと、粗いクラスときめ細かいクラスの間の基礎となる関係を同時に推論する。
さらに、FALCONは異なる戦略でラベル付けされた複数のデータセットから効果的に学習できるモジュール方式である。
8つの画像分類タスクと1つのセル分類タスクでFALCONを評価する。
FALCONはベースラインを大きなマージンで上回り、600以上のきめ細かいクラスで階層化されたImageNetデータセットの最高のベースラインよりも22%改善されている。
関連論文リスト
- TagCLIP: A Local-to-Global Framework to Enhance Open-Vocabulary
Multi-Label Classification of CLIP Without Training [29.431698321195814]
Contrastive Language-Image Pre-Training (CLIP) はオープン語彙分類において顕著な能力を示した。
CLIPは、グローバル機能が最も顕著なクラスに支配される傾向があるため、マルチラベルデータセットのパフォーマンスが低い。
画像タグを得るための局所言語フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-20T08:15:40Z) - Making Binary Classification from Multiple Unlabeled Datasets Almost
Free of Supervision [128.6645627461981]
本稿では,複数ラベル付きデータセットからの2値分類という新たな問題設定を提案する。
MU-OPPOでは、ラベル付けされていないすべてのデータセットのクラスプリエントは不要です。
このフレームワークは,クラス前の推定誤差が小さくなり,バイナリ分類の性能が向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T11:33:46Z) - MaskCon: Masked Contrastive Learning for Coarse-Labelled Dataset [19.45520684918576]
我々は、@textbfMask$ed $textbfCon$trastive Learning($textbfMaskCon$)と呼ばれる対照的な学習方法を提案する。
各サンプルに対して,本手法は,他のサンプルに対して粗いラベルを付与して軟質ラベルを生成する。
提案手法は, 各種データセットにおける現状よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-22T17:08:31Z) - Combining Metric Learning and Attention Heads For Accurate and Efficient
Multilabel Image Classification [0.0]
マルチラベル分類における2つの一般的なアプローチについて再検討する。
トランスフォーマーベースヘッドはグラフベースのブランチよりも優れた結果が得られると考えられるが、適切なトレーニング戦略により、グラフベースの手法はわずかに精度の低下を示すことができると論じる。
論文 参考訳(メタデータ) (2022-09-14T12:06:47Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - All Labels Are Not Created Equal: Enhancing Semi-supervision via Label
Grouping and Co-training [32.45488147013166]
Pseudo-labelingは、半教師付き学習(SSL)の鍵となるコンポーネントである
本論文では,ラベルセマンティクスとコトレーニングを活用した問題解決手法であるSemCoを提案する。
提案手法は,1000個のラベル付きサンプルを持つミニイメージネットデータセットにおける5.6%の精度向上を含む,様々なsslタスクにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-04-12T07:33:16Z) - MATCH: Metadata-Aware Text Classification in A Large Hierarchy [60.59183151617578]
MATCHはメタデータと階層情報の両方を利用するエンドツーエンドのフレームワークである。
親による各子ラベルのパラメータと出力確率を正規化するさまざまな方法を提案します。
大規模なラベル階層を持つ2つの大規模なテキストデータセットの実験は、MATCHの有効性を示しています。
論文 参考訳(メタデータ) (2021-02-15T05:23:08Z) - Generative Multi-Label Zero-Shot Learning [136.17594611722285]
マルチラベルゼロショット学習は、トレーニング中にデータが入手できない複数の見えないカテゴリにイメージを分類する試みである。
我々の研究は、(一般化された)ゼロショット設定におけるマルチラベル機能の問題に最初に取り組みました。
私たちのクロスレベル核融合に基づく生成アプローチは、3つのデータセットすべてにおいて最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-01-27T18:56:46Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained
Classification Problems [20.253644336965042]
実世界の分類タスクでは、各クラスは、しばしば複数のよりきめ細かい「サブクラス」を含む。
サブクラスラベルは頻繁に利用できないため、粗粒度のクラスラベルのみを使用してトレーニングされたモデルは、異なるサブクラス間で高い可変性能を示すことが多い。
本稿では,サブクラスラベルが不明な場合でも,隠れ層化を計測・緩和するGEORGEを提案する。
論文 参考訳(メタデータ) (2020-11-25T18:50:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。