論文の概要: Exploiting Global and Local Hierarchies for Hierarchical Text
Classification
- arxiv url: http://arxiv.org/abs/2205.02613v1
- Date: Thu, 5 May 2022 12:48:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-06 15:00:31.983564
- Title: Exploiting Global and Local Hierarchies for Hierarchical Text
Classification
- Title(参考訳): 階層型テキスト分類のためのグローバル・ローカル階層の展開
- Authors: Ting Jiang, Deqing Wang, Leilei Sun, Zhongzhi Chen, Fuzhen Zhuang,
Qinghong Yang
- Abstract要約: 既存の手法は、ラベル階層を全てのラベルを含む静的階層構造として扱うグローバルビューでラベル階層をエンコードする。
我々は,グローバル階層とローカル階層の両方をモデル化するために,グローバル階層とローカル階層(HBGL)を用いた階層誘導BERTを提案する。
提案手法は,最先端のHGCLRと比較して,3つのベンチマークデータセットにおいて大幅な改善を実現している。
- 参考スコア(独自算出の注目度): 34.624922210257125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical text classification aims to leverage label hierarchy in
multi-label text classification. Existing methods encode label hierarchy in a
global view, where label hierarchy is treated as the static hierarchical
structure containing all labels. Since global hierarchy is static and
irrelevant to text samples, it makes these methods hard to exploit hierarchical
information. Contrary to global hierarchy, local hierarchy as the structured
target labels hierarchy corresponding to each text sample is dynamic and
relevant to text samples, which is ignored in previous methods. To exploit
global and local hierarchies, we propose Hierarchy-guided BERT with Global and
Local hierarchies (HBGL), which utilizes the large-scale parameters and prior
language knowledge of BERT to model both global and local hierarchies.
Moreover, HBGL avoids the intentional fusion of semantic and hierarchical
modules by directly modeling semantic and hierarchical information with BERT.
Compared with the state-of-the-art method HGCLR, our method achieves
significant improvement on three benchmark datasets.
- Abstract(参考訳): 階層的テキスト分類は、マルチラベルテキスト分類におけるラベル階層の活用を目的としている。
既存の手法は、ラベル階層を全てのラベルを含む静的階層構造として扱うグローバルビューでラベル階層をエンコードする。
グローバル階層は静的であり,テキストサンプルとは無関係であるため,階層情報の活用が困難である。
グローバルな階層とは対照的に,各テキストサンプルに対応する構造化対象ラベル階層としての局所的階層は動的であり,従来の手法では無視されていた。
グローバルな階層とローカルな階層を活用するため,グローバルな階層とローカルな階層の両方をモデル化するために,BERTの大規模パラメータと事前言語知識を利用するHBGL(Herarchy-guided BERT)を提案する。
さらに、HBGLは、意味的および階層的な情報をBERTと直接モデル化することで、意味的および階層的なモジュールの意図的な融合を避ける。
提案手法は最先端のHGCLRと比較して,3つのベンチマークデータセットにおいて大幅な改善を実現している。
関連論文リスト
- SRFUND: A Multi-Granularity Hierarchical Structure Reconstruction Benchmark in Form Understanding [55.48936731641802]
階層的に構造化されたマルチタスク形式理解ベンチマークであるSRFUNDを提案する。
SRFUNDはオリジナルのFUNSDとXFUNDデータセットの上に洗練されたアノテーションを提供する。
データセットには、英語、中国語、日本語、ドイツ語、フランス語、スペイン語、イタリア語、ポルトガル語を含む8つの言語が含まれている。
論文 参考訳(メタデータ) (2024-06-13T02:35:55Z) - HiGen: Hierarchy-Aware Sequence Generation for Hierarchical Text
Classification [19.12354692458442]
階層的テキスト分類 (HTC) は、マルチラベルテキスト分類における複雑なサブタスクである。
動的テキスト表現を符号化する言語モデルを利用したテキスト生成フレームワークHiGenを提案する。
論文 参考訳(メタデータ) (2024-01-24T04:44:42Z) - SEAL: Simultaneous Label Hierarchy Exploration And Learning [9.701914280306118]
本稿では,従来の階層構造に従う潜在ラベルでラベルを増大させることにより,ラベル階層を探索する新しいフレームワークを提案する。
本手法では,木間距離空間上の1-ワッサーシュタイン計量を客観的関数として用いて,データ駆動型ラベル階層を同時に学習し,半教師付き学習を行う。
論文 参考訳(メタデータ) (2023-04-26T08:31:59Z) - Global and Local Hierarchy-aware Contrastive Framework for Implicit
Discourse Relation Recognition [8.143877598684528]
暗黙的談話関係認識(IDRR)は談話分析において難しい課題である。
近年の手法では、感覚の階層的情報全体を談話関係表現に統合する傾向にある。
本稿では,2種類の階層をモデル化する新しいGlObal and Local Hierarchy-aware Contrastive Framework(GOLF)を提案する。
論文 参考訳(メタデータ) (2022-11-25T03:19:03Z) - Deep Hierarchical Semantic Segmentation [76.40565872257709]
階層的セマンティックセマンティックセグメンテーション(HSS)は、クラス階層の観点で視覚的観察を構造化、ピクセル単位で記述することを目的としている。
HSSNは、HSSを画素単位のマルチラベル分類タスクとしてキャストし、現在のセグメンテーションモデルに最小限のアーキテクチャ変更をもたらすだけである。
階層構造によって引き起こされるマージンの制約により、HSSNはピクセル埋め込み空間を再評価し、よく構造化されたピクセル表現を生成する。
論文 参考訳(メタデータ) (2022-03-27T15:47:44Z) - Incorporating Hierarchy into Text Encoder: a Contrastive Learning
Approach for Hierarchical Text Classification [23.719121637849806]
テキストエンコーダにラベル階層を埋め込むための階層型コントラスト学習(HGCLR)を提案する。
トレーニング中、HGCLRはラベル階層のガイダンスの下で入力テキストの正のサンプルを構築する。
トレーニング後、HGCLR拡張テキストエンコーダは冗長な階層を不要にすることができる。
論文 参考訳(メタデータ) (2022-03-08T03:21:45Z) - MATCH: Metadata-Aware Text Classification in A Large Hierarchy [60.59183151617578]
MATCHはメタデータと階層情報の両方を利用するエンドツーエンドのフレームワークである。
親による各子ラベルのパラメータと出力確率を正規化するさまざまな方法を提案します。
大規模なラベル階層を持つ2つの大規模なテキストデータセットの実験は、MATCHの有効性を示しています。
論文 参考訳(メタデータ) (2021-02-15T05:23:08Z) - Exploring the Hierarchy in Relation Labels for Scene Graph Generation [75.88758055269948]
提案手法は,Recall@50において,複数の最先端ベースラインを大きなマージン(最大33%の相対利得)で改善することができる。
実験により,提案手法により,最先端のベースラインを大きなマージンで改善できることが示された。
論文 参考訳(メタデータ) (2020-09-12T17:36:53Z) - Hierarchical Image Classification using Entailment Cone Embeddings [68.82490011036263]
まずラベル階層の知識を任意のCNNベースの分類器に注入する。
画像からの視覚的セマンティクスと組み合わせた外部セマンティクス情報の利用が全体的な性能を高めることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-02T10:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。