論文の概要: HiTIN: Hierarchy-aware Tree Isomorphism Network for Hierarchical Text
Classification
- arxiv url: http://arxiv.org/abs/2305.15182v2
- Date: Fri, 9 Jun 2023 08:53:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 16:35:36.043582
- Title: HiTIN: Hierarchy-aware Tree Isomorphism Network for Hierarchical Text
Classification
- Title(参考訳): hitin:階層認識木同型ネットワークによる階層的テキスト分類
- Authors: He Zhu, Chong Zhang, Junjie Huang, Junran Wu, Ke Xu
- Abstract要約: 本稿では階層型木同型ネットワーク(HiTIN)を提案する。
我々は3つの一般的なデータセットで実験を行い、その結果、HiTINはより良いテスト性能とメモリ消費を達成できることを示した。
- 参考スコア(独自算出の注目度): 18.03202012033514
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Hierarchical text classification (HTC) is a challenging subtask of
multi-label classification as the labels form a complex hierarchical structure.
Existing dual-encoder methods in HTC achieve weak performance gains with huge
memory overheads and their structure encoders heavily rely on domain knowledge.
Under such observation, we tend to investigate the feasibility of a
memory-friendly model with strong generalization capability that could boost
the performance of HTC without prior statistics or label semantics. In this
paper, we propose Hierarchy-aware Tree Isomorphism Network (HiTIN) to enhance
the text representations with only syntactic information of the label
hierarchy. Specifically, we convert the label hierarchy into an unweighted tree
structure, termed coding tree, with the guidance of structural entropy. Then we
design a structure encoder to incorporate hierarchy-aware information in the
coding tree into text representations. Besides the text encoder, HiTIN only
contains a few multi-layer perceptions and linear transformations, which
greatly saves memory. We conduct experiments on three commonly used datasets
and the results demonstrate that HiTIN could achieve better test performance
and less memory consumption than state-of-the-art (SOTA) methods.
- Abstract(参考訳): 階層的テキスト分類(HTC)は、ラベルが複雑な階層構造を形成するため、多ラベル分類の挑戦的なサブタスクである。
既存のHTCのデュアルエンコーダメソッドは、メモリオーバーヘッドが大きく、その構造エンコーダはドメイン知識に大きく依存する。
このような観察の下では,従来の統計やラベルセマンティクスを使わずにhtcのパフォーマンスを向上できる強力な一般化機能を備えたメモリフレンドリーモデルの実現可能性について検討する傾向がある。
本稿では,ラベル階層の構文情報のみを用いてテキスト表現を強化する階層認識木同型ネットワーク(hitin)を提案する。
具体的には,ラベル階層を構造エントロピーの指導により,符号木と呼ばれる非重み付き木構造に変換する。
次に、構造エンコーダを設計し、コードツリーに階層認識情報をテキスト表現に組み込む。
テキストエンコーダの他に、HiTINには、メモリを大幅に節約する、少数の多層認識と線形変換しか含まれていない。
我々は3つの一般的なデータセットで実験を行い、その結果、HiTINは最先端(SOTA)手法よりもテスト性能が良く、メモリ消費も少ないことを示した。
関連論文リスト
- HiLight: A Hierarchy-aware Light Global Model with Hierarchical Local ConTrastive Learning [3.889612454093451]
階層的テキスト分類(HTC)はマルチラベル分類(MLC)のサブタスクである
階層型局所コントラスト学習(HiLCL)と呼ばれる階層型情報を導入するための新しい学習課題を提案する。
論文 参考訳(メタデータ) (2024-08-11T14:26:58Z) - HDT: Hierarchical Document Transformer [70.2271469410557]
HDTは補助的なアンカートークンを導入し、アテンション機構をスパースなマルチレベル階層に再設計することでドキュメント構造を利用する。
文書の階層構造を考慮した新しいスパークアテンションカーネルを開発した。
論文 参考訳(メタデータ) (2024-07-11T09:28:04Z) - HiGen: Hierarchy-Aware Sequence Generation for Hierarchical Text
Classification [19.12354692458442]
階層的テキスト分類 (HTC) は、マルチラベルテキスト分類における複雑なサブタスクである。
動的テキスト表現を符号化する言語モデルを利用したテキスト生成フレームワークHiGenを提案する。
論文 参考訳(メタデータ) (2024-01-24T04:44:42Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - Constrained Sequence-to-Tree Generation for Hierarchical Text
Classification [10.143177923523407]
階層的テキスト分類(HTC)は、分類学内で複数の階層的に構造化されたカテゴリに文書を割り当てる難易度の高いタスクである。
本稿では,HTCをシーケンス生成タスクとして定式化し,階層的なラベル構造をモデル化するためのシーケンス・ツー・ツリー・フレームワーク(Seq2Tree)を導入する。
論文 参考訳(メタデータ) (2022-04-02T08:35:39Z) - Deep Hierarchical Semantic Segmentation [76.40565872257709]
階層的セマンティックセマンティックセグメンテーション(HSS)は、クラス階層の観点で視覚的観察を構造化、ピクセル単位で記述することを目的としている。
HSSNは、HSSを画素単位のマルチラベル分類タスクとしてキャストし、現在のセグメンテーションモデルに最小限のアーキテクチャ変更をもたらすだけである。
階層構造によって引き起こされるマージンの制約により、HSSNはピクセル埋め込み空間を再評価し、よく構造化されたピクセル表現を生成する。
論文 参考訳(メタデータ) (2022-03-27T15:47:44Z) - Incorporating Hierarchy into Text Encoder: a Contrastive Learning
Approach for Hierarchical Text Classification [23.719121637849806]
テキストエンコーダにラベル階層を埋め込むための階層型コントラスト学習(HGCLR)を提案する。
トレーニング中、HGCLRはラベル階層のガイダンスの下で入力テキストの正のサンプルを構築する。
トレーニング後、HGCLR拡張テキストエンコーダは冗長な階層を不要にすることができる。
論文 参考訳(メタデータ) (2022-03-08T03:21:45Z) - Hierarchical Text Classification As Sub-Hierarchy Sequence Generation [8.062201442038957]
階層的テキスト分類(HTC)は、様々な実アプリケーションに必須である。
最近のHTCモデルは階層情報をモデル構造に組み込もうとしている。
我々はHTCをサブ階層シーケンス生成として定式化し、階層情報をターゲットラベルシーケンスに組み込む。
HiDECは、ベンチマークデータセットの既存のモデルよりもモデルパラメータが大幅に少ない最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2021-11-22T10:50:39Z) - HTCInfoMax: A Global Model for Hierarchical Text Classification via
Information Maximization [75.45291796263103]
階層的テキスト分類のための現在の最新モデルHiAGMには2つの制限がある。
関連しない情報を含むデータセット内のすべてのラベルと、各テキストサンプルを関連付ける。
2つのモジュールを含む情報を導入することで、これらの問題に対処するHTCInfoMaxを提案します。
論文 参考訳(メタデータ) (2021-04-12T06:04:20Z) - MATCH: Metadata-Aware Text Classification in A Large Hierarchy [60.59183151617578]
MATCHはメタデータと階層情報の両方を利用するエンドツーエンドのフレームワークである。
親による各子ラベルのパラメータと出力確率を正規化するさまざまな方法を提案します。
大規模なラベル階層を持つ2つの大規模なテキストデータセットの実験は、MATCHの有効性を示しています。
論文 参考訳(メタデータ) (2021-02-15T05:23:08Z) - Tree-structured Attention with Hierarchical Accumulation [103.47584968330325]
階層的累積」は解析木構造を一定時間複雑度で自己注意に符号化する。
提案手法は,4つの IWSLT 翻訳タスクと WMT'14 翻訳タスクにおいて,SOTA 法より優れている。
論文 参考訳(メタデータ) (2020-02-19T08:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。