論文の概要: IDEA: Interactive DoublE Attentions from Label Embedding for Text
Classification
- arxiv url: http://arxiv.org/abs/2209.11407v1
- Date: Fri, 23 Sep 2022 04:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 13:36:45.369927
- Title: IDEA: Interactive DoublE Attentions from Label Embedding for Text
Classification
- Title(参考訳): テキスト分類のためのラベル埋め込みからのインタラクティブな二重注意
- Authors: Ziyuan Wang, Hailiang Huang, Songqiao Han
- Abstract要約: そこで,本研究では,シム BERT による新しいモデル構造と IDEA という対話型ダブルアテンションを提案し,テキストとラベル名の情報交換を行う。
提案手法は, ラベルテキストを用いた最先端の手法よりも, より安定した結果が得られている。
- 参考スコア(独自算出の注目度): 4.342189319523322
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current text classification methods typically encode the text merely into
embedding before a naive or complicated classifier, which ignores the
suggestive information contained in the label text. As a matter of fact, humans
classify documents primarily based on the semantic meaning of the
subcategories. We propose a novel model structure via siamese BERT and
interactive double attentions named IDEA ( Interactive DoublE Attentions) to
capture the information exchange of text and label names. Interactive double
attentions enable the model to exploit the inter-class and intra-class
information from coarse to fine, which involves distinguishing among all labels
and matching the semantical subclasses of ground truth labels. Our proposed
method outperforms the state-of-the-art methods using label texts significantly
with more stable results.
- Abstract(参考訳): 現在のテキスト分類法は、通常、ラベルテキストに含まれる示唆的な情報を無視するナイーブまたは複雑な分類器の前に、テキストを単に埋め込みにエンコードする。
事実として、人間は主にサブカテゴリの意味的意味に基づいて文書を分類する。
テキストとラベル名の情報交換を行うために,シアムBERTとIDEA(Interactive DoublE Attentions)という対話型ダブルアテンションを用いた新しいモデル構造を提案する。
インタラクティブな二重注意により、モデルは、すべてのラベルを区別し、基底真理ラベルのセマンティックサブクラスをマッチングする、粗いものから細かいものまで、クラス間およびクラス内情報を活用できる。
提案手法は,ラベルテキストを用いた最先端手法よりも,より安定した結果が得られる。
関連論文リスト
- Unlocking the Multi-modal Potential of CLIP for Generalized Category Discovery [50.564146730579424]
テキスト埋め込み合成器(TES)を提案する。
提案手法は,CLIPのマルチモーダルポテンシャルを解放し,すべてのGCDベンチマークにおいて,ベースライン手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2024-03-15T02:40:13Z) - Description-Enhanced Label Embedding Contrastive Learning for Text
Classification [65.01077813330559]
モデル学習プロセスにおける自己監督型学習(SSL)と新しい自己監督型関係関係(R2)分類タスクの設計
テキスト分類とR2分類を最適化対象として扱うテキスト分類のための関係学習ネットワーク(R2-Net)の関係について検討する。
ラベルセマンティックラーニングのためのマルチアスペクト記述を得るためのWordNetからの外部知識。
論文 参考訳(メタデータ) (2023-06-15T02:19:34Z) - Label Semantic Aware Pre-training for Few-shot Text Classification [53.80908620663974]
テキスト分類システムの一般化とデータ効率を向上させるために,ラベルセマンティック・アウェア事前学習(LSAP)を提案する。
LSAPは、ラベル付き文の2次事前学習を行うことにより、ラベルセマンティクスを事前学習された生成モデル(T5)に組み込む。
論文 参考訳(メタデータ) (2022-04-14T17:33:34Z) - Prompt-Learning for Short Text Classification [30.53216712864025]
短文では、極端に短い長さ、特徴の空間性、高いあいまいさは、分類タスクに大きな課題をもたらす。
本稿では,知識拡張に基づく素早い学習を生かした簡易な短文分類手法を提案する。
論文 参考訳(メタデータ) (2022-02-23T08:07:06Z) - MATCH: Metadata-Aware Text Classification in A Large Hierarchy [60.59183151617578]
MATCHはメタデータと階層情報の両方を利用するエンドツーエンドのフレームワークである。
親による各子ラベルのパラメータと出力確率を正規化するさまざまな方法を提案します。
大規模なラベル階層を持つ2つの大規模なテキストデータセットの実験は、MATCHの有効性を示しています。
論文 参考訳(メタデータ) (2021-02-15T05:23:08Z) - Hierarchical Image Classification using Entailment Cone Embeddings [68.82490011036263]
まずラベル階層の知識を任意のCNNベースの分類器に注入する。
画像からの視覚的セマンティクスと組み合わせた外部セマンティクス情報の利用が全体的な性能を高めることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-02T10:22:02Z) - Label-guided Learning for Text Classification [47.15144153830845]
テキスト表現と分類のためのラベル誘導学習フレームワークLguidedLearnを提案する。
本手法は,一般的なテキスト表現学習スキーマにラベル付き符号化層を挿入するだけでよい,斬新な手法である。
提案フレームワークでは,ラベル誘導層を文脈符号化法で容易に直接適用し,共同学習を行う。
論文 参考訳(メタデータ) (2020-02-25T10:05:56Z) - Description Based Text Classification with Reinforcement Learning [34.18824470728299]
本稿では,各カテゴリのラベルをカテゴリ記述に関連付ける,テキスト分類のための新しいフレームワークを提案する。
我々は、幅広いテキスト分類タスクにおいて、強いベースラインよりも顕著なパフォーマンス向上を観察する。
論文 参考訳(メタデータ) (2020-02-08T02:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。