論文の概要: Learning Label Hierarchy with Supervised Contrastive Learning
- arxiv url: http://arxiv.org/abs/2402.00232v1
- Date: Wed, 31 Jan 2024 23:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 17:14:46.378797
- Title: Learning Label Hierarchy with Supervised Contrastive Learning
- Title(参考訳): 教師付きコントラスト学習によるラベル階層学習
- Authors: Ruixue Lian, William A. Sethares, Junjie Hu
- Abstract要約: 教師付きコントラスト学習(SCL)フレームワークは、各クラスを独立したものとして扱うため、すべてのクラスが等しく重要であるとみなす。
本稿では,クラス間の類似性を利用して階層情報をSCLに組み込んだラベル認識型SCL手法(LASCL)のファミリーを紹介する。
3つのデータセットに対する実験により、提案したLASCLは、複数ラベルの1つのラベルを区別するテキスト分類にうまく機能することが示された。
- 参考スコア(独自算出の注目度): 8.488965459026678
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised contrastive learning (SCL) frameworks treat each class as
independent and thus consider all classes to be equally important. This
neglects the common scenario in which label hierarchy exists, where
fine-grained classes under the same category show more similarity than very
different ones. This paper introduces a family of Label-Aware SCL methods
(LASCL) that incorporates hierarchical information to SCL by leveraging
similarities between classes, resulting in creating a more well-structured and
discriminative feature space. This is achieved by first adjusting the distance
between instances based on measures of the proximity of their classes with the
scaled instance-instance-wise contrastive. An additional instance-center-wise
contrastive is introduced to move within-class examples closer to their
centers, which are represented by a set of learnable label parameters. The
learned label parameters can be directly used as a nearest neighbor classifier
without further finetuning. In this way, a better feature representation is
generated with improvements of intra-cluster compactness and inter-cluster
separation. Experiments on three datasets show that the proposed LASCL works
well on text classification of distinguishing a single label among
multi-labels, outperforming the baseline supervised approaches. Our code is
publicly available.
- Abstract(参考訳): 教師付きコントラスト学習(SCL)フレームワークは、各クラスを独立したものとして扱うため、すべてのクラスが同様に重要である。
これはラベル階層が存在する一般的なシナリオを無視し、同じカテゴリ下のきめ細かいクラスは、非常に異なるクラスよりも多くの類似性を示す。
本稿では,クラス間の類似性を利用して階層情報をSCLに組み込んだラベル認識型SCL法(LASCL)のファミリーを紹介する。
これは、インスタンス間の距離を、インスタンス-インスタンス間コントラストをスケールしたクラス間の近接の尺度に基づいて、最初に調整することによって達成される。
追加のインスタンス中心方向のコントラストは、学習可能なラベルパラメータのセットで表されるクラス内の例をその中心に近づけるために導入された。
学習されたラベルパラメータは、さらに微調整することなく、最寄りの隣接分類器として直接使用できる。
このようにして、クラスタ内コンパクト性とクラスタ間分離の改善により、より優れた特徴表現が生成される。
3つのデータセットの実験により、提案したLASCLは、複数のラベルの1つのラベルを区別するテキスト分類にうまく機能し、ベースライン管理アプローチよりも優れていることが示された。
私たちのコードは公開されています。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - Label Cluster Chains for Multi-Label Classification [2.072831155509228]
マルチラベル分類は、複数のラベルをインスタンスに同時に割り当てることができる教師付き機械学習の一種である。
そこで本稿では,ラベル空間に分割法を適用して得られた解離相関ラベルクラスタをチェーンする手法を提案する。
提案手法は,学習と連鎖が相関するラベルクラスタをよりよく探索し,ラベル相関を学習できることを示唆する。
論文 参考訳(メタデータ) (2024-11-01T11:16:37Z) - Logit Separability-Driven Samples and Multiple Class-Related Words Selection for Advancing In-Context Learning [0.0]
本稿では,ロジットレベルのサンプルとクラス関連単語の明瞭度を評価するための基準であるロジット分離性を導入する。
各サンプルに複数のクラス関連語を組み込むことで,より広い範囲のラベル情報を提供することで,性能の向上が期待できる。
サンプルを共同で整理し,複数のクラス関連単語を各サンプルラベルペアに統合する,ロジット分離性に基づくlicLを提案する。
論文 参考訳(メタデータ) (2024-06-16T12:11:46Z) - TagCLIP: A Local-to-Global Framework to Enhance Open-Vocabulary
Multi-Label Classification of CLIP Without Training [29.431698321195814]
Contrastive Language-Image Pre-Training (CLIP) はオープン語彙分類において顕著な能力を示した。
CLIPは、グローバル機能が最も顕著なクラスに支配される傾向があるため、マルチラベルデータセットのパフォーマンスが低い。
画像タグを得るための局所言語フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-20T08:15:40Z) - Generalized Category Discovery with Clustering Assignment Consistency [56.92546133591019]
一般化圏発見(GCD)は、最近提案されたオープンワールドタスクである。
クラスタリングの一貫性を促進するための協調学習ベースのフレームワークを提案する。
提案手法は,3つの総合的なベンチマークと3つのきめ細かい視覚認識データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-30T00:32:47Z) - Triplet Contrastive Learning for Unsupervised Vehicle Re-identification [55.445358749042384]
部分的特徴学習は、車両の再識別におけるセマンティック理解にとって重要な技術である。
本稿では,クラスタ機能を活用したTCL(Triplet Contrastive Learning framework)を提案する。
論文 参考訳(メタデータ) (2023-01-23T15:52:12Z) - Learning Disentangled Label Representations for Multi-label
Classification [39.97251974500034]
One-Shared-Feature-for-Multiple-Labels (OFML) は識別ラベルの特徴を学習するのに役立ちません。
我々は,One-specific-Feature-for-One-Label(OFOL)機構を導入し,新しいアンタングル付きラベル特徴学習フレームワークを提案する。
8つのデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-12-02T21:49:34Z) - Multiple Instance Learning via Iterative Self-Paced Supervised
Contrastive Learning [22.07044031105496]
バッグレベルのラベルのみが利用可能な場合の個々のインスタンスの学習表現は、MIL(Multiple Case Learning)の課題である。
我々は、MIL表現のための新しいフレームワーク、Iterative Self-paced Supervised Contrastive Learning (ItS2CLR)を提案する。
バッグレベルのラベルから派生したインスタンスレベルの擬似ラベルを活用することで、学習された表現を改善する。
論文 参考訳(メタデータ) (2022-10-17T21:43:32Z) - Learning to Detect Instance-level Salient Objects Using Complementary
Image Labels [55.049347205603304]
本報告では,本問題に対する第1の弱教師付きアプローチを提案する。
本稿では,候補対象の特定にクラス整合性情報を活用するSaliency Detection Branch,オブジェクト境界をデライン化するためにクラス整合性情報を利用するBundary Detection Branch,サブティナイズ情報を用いたCentroid Detection Branchを提案する。
論文 参考訳(メタデータ) (2021-11-19T10:15:22Z) - Generative Multi-Label Zero-Shot Learning [136.17594611722285]
マルチラベルゼロショット学習は、トレーニング中にデータが入手できない複数の見えないカテゴリにイメージを分類する試みである。
我々の研究は、(一般化された)ゼロショット設定におけるマルチラベル機能の問題に最初に取り組みました。
私たちのクロスレベル核融合に基づく生成アプローチは、3つのデータセットすべてにおいて最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2021-01-27T18:56:46Z) - Unsupervised Feature Learning by Cross-Level Instance-Group
Discrimination [68.83098015578874]
我々は、インスタンスグループ化ではなく、クロスレベルな識別によって、インスタンス間の類似性を対照的な学習に統合する。
CLDは、教師なし学習を、自然データや現実世界のアプリケーションに効果的に近づける。
セルフスーパービジョン、セミスーパービジョン、トランスファーラーニングベンチマークに関する新たな最先端技術は、報告されたすべてのパフォーマンスでMoCo v2とSimCLRを上回っている。
論文 参考訳(メタデータ) (2020-08-09T21:13:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。