論文の概要: Hierarchical Text Classification Using Contrastive Learning Informed Path Guided Hierarchy
- arxiv url: http://arxiv.org/abs/2506.04381v1
- Date: Wed, 04 Jun 2025 18:51:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-06 21:53:49.388299
- Title: Hierarchical Text Classification Using Contrastive Learning Informed Path Guided Hierarchy
- Title(参考訳): コントラスト学習インフォームドパスガイド階層を用いた階層型テキスト分類
- Authors: Neeraj Agrawal, Saurabh Kumar, Priyanka Bhatt, Tanishka Agarwal,
- Abstract要約: コントラスト学習インフォームドパスガイド階層(HTC-CLIP)を用いた階層型テキスト分類を提案する。
HTC-CLIPは、コントラスト学習を用いて、階層対応テキスト表現とテキスト情報経路案内階層表現を学習する。
以上の結果から,従来の2つのアプローチを1つのアーキテクチャに効果的に組み合わせて,性能向上を実現できることが示唆された。
- 参考スコア(独自算出の注目度): 1.0129089187146396
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Hierarchical Text Classification (HTC) has recently gained traction given the ability to handle complex label hierarchy. This has found applications in domains like E- commerce, customer care and medicine industry among other real-world applications. Existing HTC models either encode label hierarchy separately and mix it with text encoding or guide the label hierarchy structure in the text encoder. Both approaches capture different characteristics of label hierarchy and are complementary to each other. In this paper, we propose a Hierarchical Text Classification using Contrastive Learning Informed Path guided hierarchy (HTC-CLIP), which learns hierarchy-aware text representation and text informed path guided hierarchy representation using contrastive learning. During the training of HTC-CLIP, we learn two different sets of class probabilities distributions and during inference, we use the pooled output of both probabilities for each class to get the best of both representations. Our results show that the two previous approaches can be effectively combined into one architecture to achieve improved performance. Tests on two public benchmark datasets showed an improvement of 0.99 - 2.37% in Macro F1 score using HTC-CLIP over the existing state-of-the-art models.
- Abstract(参考訳): 階層的テキスト分類(HTC)は、最近、複雑なラベル階層を扱う能力から注目を集めている。
これにより、Eコマース、カスタマーケア、医療産業といった分野のアプリケーションや、その他の現実世界のアプリケーションに応用が見出されている。
既存のHTCモデルは、ラベル階層を別々にエンコードし、それをテキストエンコーディングまたはテキストエンコーダ内のラベル階層構造をガイドする。
どちらのアプローチもラベル階層の異なる特性を捉えており、相互に補完的である。
本稿では,コントラスト学習を用いた階層型テキスト分類法を提案する。
HTC-CLIPのトレーニング中に2つの異なるクラス確率分布を学習し、推論では、各クラスに2つの確率のプールアウトプットを用いて、両方の表現を最大限に活用する。
以上の結果から,従来の2つのアプローチを1つのアーキテクチャに効果的に組み合わせて,性能向上を実現できることが示唆された。
2つの公開ベンチマークデータセットのテストでは、既存の最先端モデルよりもHTC-CLIPを使用したマクロF1スコアが0.99-2.37%向上した。
関連論文リスト
- Utilizing Local Hierarchy with Adversarial Training for Hierarchical Text Classification [30.353876890557984]
階層的テキスト分類(HTC)は、その複雑な分類学的構造のために難しいサブタスクである。
我々は,ほぼすべてのHTCモデルに適合するHiAdvフレームワークを提案し,それを補助情報としてローカル階層で最適化する。
論文 参考訳(メタデータ) (2024-02-29T03:20:45Z) - Hierarchical Verbalizer for Few-Shot Hierarchical Text Classification [10.578682558356473]
階層的テキスト分類(HTC)は、低リソースまたは少数ショットの設定を考慮すると、パフォーマンスが低下する。
本稿では,HTC を単一あるいは複数ラベルの分類問題として扱う多言語フレームワークである階層型動詞化器 (HierVerb) を提案する。
このように、HierVerbはラベル階層の知識を動詞化子に融合させ、グラフエンコーダを通じて階層を注入する者よりも著しく優れています。
論文 参考訳(メタデータ) (2023-05-26T12:41:49Z) - HiTIN: Hierarchy-aware Tree Isomorphism Network for Hierarchical Text
Classification [18.03202012033514]
本稿では階層型木同型ネットワーク(HiTIN)を提案する。
我々は3つの一般的なデータセットで実験を行い、その結果、HiTINはより良いテスト性能とメモリ消費を達成できることを示した。
論文 参考訳(メタデータ) (2023-05-24T14:14:08Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - Deep Hierarchical Semantic Segmentation [76.40565872257709]
階層的セマンティックセマンティックセグメンテーション(HSS)は、クラス階層の観点で視覚的観察を構造化、ピクセル単位で記述することを目的としている。
HSSNは、HSSを画素単位のマルチラベル分類タスクとしてキャストし、現在のセグメンテーションモデルに最小限のアーキテクチャ変更をもたらすだけである。
階層構造によって引き起こされるマージンの制約により、HSSNはピクセル埋め込み空間を再評価し、よく構造化されたピクセル表現を生成する。
論文 参考訳(メタデータ) (2022-03-27T15:47:44Z) - Incorporating Hierarchy into Text Encoder: a Contrastive Learning
Approach for Hierarchical Text Classification [23.719121637849806]
テキストエンコーダにラベル階層を埋め込むための階層型コントラスト学習(HGCLR)を提案する。
トレーニング中、HGCLRはラベル階層のガイダンスの下で入力テキストの正のサンプルを構築する。
トレーニング後、HGCLR拡張テキストエンコーダは冗長な階層を不要にすることができる。
論文 参考訳(メタデータ) (2022-03-08T03:21:45Z) - HTCInfoMax: A Global Model for Hierarchical Text Classification via
Information Maximization [75.45291796263103]
階層的テキスト分類のための現在の最新モデルHiAGMには2つの制限がある。
関連しない情報を含むデータセット内のすべてのラベルと、各テキストサンプルを関連付ける。
2つのモジュールを含む情報を導入することで、これらの問題に対処するHTCInfoMaxを提案します。
論文 参考訳(メタデータ) (2021-04-12T06:04:20Z) - MATCH: Metadata-Aware Text Classification in A Large Hierarchy [60.59183151617578]
MATCHはメタデータと階層情報の両方を利用するエンドツーエンドのフレームワークである。
親による各子ラベルのパラメータと出力確率を正規化するさまざまな方法を提案します。
大規模なラベル階層を持つ2つの大規模なテキストデータセットの実験は、MATCHの有効性を示しています。
論文 参考訳(メタデータ) (2021-02-15T05:23:08Z) - An Empirical Study on Large-Scale Multi-Label Text Classification
Including Few and Zero-Shot Labels [49.036212158261215]
大規模なMulti-label Text Classification (LMTC) は、幅広い自然言語処理 (NLP) アプリケーションを持つ。
Label-Wise Attention Networks (LWANs) を用いた最新のLMTCモデル
確率的ラベル木(PLT)に基づく階層的手法がLWANより優れていることを示す。
BERTとLWANを組み合わせた最先端手法を提案する。
論文 参考訳(メタデータ) (2020-10-04T18:55:47Z) - Exploring the Hierarchy in Relation Labels for Scene Graph Generation [75.88758055269948]
提案手法は,Recall@50において,複数の最先端ベースラインを大きなマージン(最大33%の相対利得)で改善することができる。
実験により,提案手法により,最先端のベースラインを大きなマージンで改善できることが示された。
論文 参考訳(メタデータ) (2020-09-12T17:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。