論文の概要: TENT: Text Classification Based on ENcoding Tree Learning
- arxiv url: http://arxiv.org/abs/2110.02047v1
- Date: Tue, 5 Oct 2021 13:55:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 14:25:41.536756
- Title: TENT: Text Classification Based on ENcoding Tree Learning
- Title(参考訳): TENT: 木学習のエンコードに基づくテキスト分類
- Authors: Chong Zhang, Junran Wu, He Zhu, Ke Xu
- Abstract要約: 我々は,テキスト分類性能の向上と,計算能力への依存度低減を図るため,TENTを提案する。
具体的には、まず各テキストに対して依存分析グラフを構築し、次に各グラフを対応する符号化木に変換する。
実験結果から,本手法は複数のデータセットにおいて,他のベースラインよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 9.927112304745542
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Text classification is a primary task in natural language processing (NLP).
Recently, graph neural networks (GNNs) have developed rapidly and been applied
to text classification tasks. Although more complex models tend to achieve
better performance, research highly depends on the computing power of the
device used. In this article, we propose TENT (https://github.com/Daisean/TENT)
to obtain better text classification performance and reduce the reliance on
computing power. Specifically, we first establish a dependency analysis graph
for each text and then convert each graph into its corresponding encoding tree.
The representation of the entire graph is obtained by updating the
representation of the non-leaf nodes in the encoding tree. Experimental results
show that our method outperforms other baselines on several datasets while
having a simple structure and few parameters.
- Abstract(参考訳): テキスト分類は自然言語処理(NLP)の主要な課題である。
近年,グラフニューラルネットワーク(GNN)が急速に発展し,テキスト分類タスクに応用されている。
より複雑なモデルはより良い性能を達成する傾向があるが、研究は使用するデバイスの計算能力に大きく依存する。
本稿では,テキスト分類性能の向上と,計算能力への依存を軽減するため,TENT(https://github.com/Daisean/TENT)を提案する。
具体的には、まず各テキストに対する依存分析グラフを確立し、次に各グラフを対応するエンコーディングツリーに変換する。
グラフ全体の表現は、符号化ツリー内の非リーフノードの表現を更新することによって得られる。
実験の結果,本手法は単純な構造とパラメータ数を保ったまま,複数のデータセット上の他のベースラインよりも優れていた。
関連論文リスト
- Text classification optimization algorithm based on graph neural network [0.36651088217486427]
本稿では,グラフニューラルネットワークを用いたテキスト分類最適化アルゴリズムを提案する。
適応的なグラフ構築戦略と効率的なグラフ畳み込み操作を導入することにより、テキスト分類の精度と効率を効果的に向上する。
論文 参考訳(メタデータ) (2024-08-09T23:25:37Z) - Graph Neural Networks for Contextual ASR with the Tree-Constrained
Pointer Generator [9.053645441056256]
本稿では,グラフニューラルネットワーク(GNN)符号化を用いたエンドツーエンドのコンテキストASRを実現するための革新的な手法を提案する。
GNNエンコーディングは、各ツリーノードでのASR復号処理において、将来のワードピースのルックアヘッドを促進する。
Librispeech と AMI corpus を用いて,視覚的な文脈的 ASR パイプラインに従ってシステム性能を評価した。
論文 参考訳(メタデータ) (2023-05-30T08:20:58Z) - A semantic hierarchical graph neural network for text classification [1.439766998338892]
本稿では,単語レベル,文レベル,文書レベルから対応する情報をそれぞれ抽出する階層型グラフニューラルネットワーク(HieGNN)を提案する。
いくつかのベンチマークデータセットの実験結果は、いくつかのベースライン手法と比較して、より良い、または類似した結果が得られる。
論文 参考訳(メタデータ) (2022-09-15T03:59:31Z) - Incorporating Constituent Syntax for Coreference Resolution [50.71868417008133]
本稿では,構成構文構造をグラフベースで組み込む手法を提案する。
また、高次近傍情報を利用して構成木に富んだ構造をエンコードすることも検討する。
on the English and Chinese parts of OntoNotes 5.0 benchmark shows that our proposed model beats a strong baseline or a new-of-the-art performance。
論文 参考訳(メタデータ) (2022-02-22T07:40:42Z) - TextRGNN: Residual Graph Neural Networks for Text Classification [13.912147013558846]
TextRGNNは改良されたGNN構造であり、畳み込みネットワークの深さを深くする残差接続を導入している。
我々の構造はより広いノード受容場を得ることができ、ノード特徴の過度な平滑化を効果的に抑制できる。
コーパスレベルであれテキストレベルであれ、分類精度を大幅に向上させ、幅広いテキスト分類データセット上でSOTA性能を達成することができる。
論文 参考訳(メタデータ) (2021-12-30T13:48:58Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - Graph Neural Networks for Natural Language Processing: A Survey [64.36633422999905]
本稿では,自然言語処理のためのグラフニューラルネットワーク(GNN)について概観する。
我々は,グラフ構築,グラフ表現学習,グラフベースエンコーダ・デコーダモデルという3つの軸に沿って,NLP用GNNの既存の研究を組織する,NLP用GNNの新しい分類法を提案する。
論文 参考訳(メタデータ) (2021-06-10T23:59:26Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Every Document Owns Its Structure: Inductive Text Classification via
Graph Neural Networks [22.91359631452695]
グラフニューラルネットワーク(GNN)を用いたインダクティブテキスト分類のためのテクスティングを提案する。
まず、各文書の個々のグラフを作成し、次にGNNを用いて局所構造に基づいて粒度の細かい単語表現を学習する。
本手法は,最先端のテキスト分類法より優れている。
論文 参考訳(メタデータ) (2020-04-22T07:23:47Z) - Improved Code Summarization via a Graph Neural Network [96.03715569092523]
一般に、ソースコード要約技術はソースコードを入力として使用し、自然言語記述を出力する。
これらの要約を生成するために、ASTのデフォルト構造によくマッチするグラフベースのニューラルアーキテクチャを使用するアプローチを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:36:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。