論文の概要: Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification
- arxiv url: http://arxiv.org/abs/2011.00387v1
- Date: Sun, 1 Nov 2020 00:21:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 23:10:45.261455
- Title: Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification
- Title(参考訳): Be More with Less: インダクティブテキスト分類のためのハイパーグラフ注意ネットワーク
- Authors: Kaize Ding, Jianling Wang, Jundong Li, Dingcheng Li, Huan Liu
- Abstract要約: グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
- 参考スコア(独自算出の注目度): 56.98218530073927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text classification is a critical research topic with broad applications in
natural language processing. Recently, graph neural networks (GNNs) have
received increasing attention in the research community and demonstrated their
promising results on this canonical task. Despite the success, their
performance could be largely jeopardized in practice since they are: (1) unable
to capture high-order interaction between words; (2) inefficient to handle
large datasets and new documents. To address those issues, in this paper, we
propose a principled model -- hypergraph attention networks (HyperGAT), which
can obtain more expressive power with less computational consumption for text
representation learning. Extensive experiments on various benchmark datasets
demonstrate the efficacy of the proposed approach on the text classification
task.
- Abstract(参考訳): テキスト分類は自然言語処理に広く応用される重要な研究テーマである。
近年,グラフニューラルネットワーク (GNN) が研究コミュニティで注目され,この標準課題における有望な成果を実証している。
成功にもかかわらず、そのパフォーマンスは、(1)単語間の高次相互作用をキャプチャできないこと、(2)大きなデータセットと新しいドキュメントを扱うのが効率的でないこと、など、現実的に大きく損なわれる可能性がある。
本稿では,これらの問題に対処するために,テキスト表現学習のための計算量が少なく,より表現力に富むハイパーグラフアテンションネットワーク(hypergat)を提案する。
各種ベンチマークデータセットに対する大規模な実験により,テキスト分類作業における提案手法の有効性が示された。
関連論文リスト
- Text classification optimization algorithm based on graph neural network [0.36651088217486427]
本稿では,グラフニューラルネットワークを用いたテキスト分類最適化アルゴリズムを提案する。
適応的なグラフ構築戦略と効率的なグラフ畳み込み操作を導入することにより、テキスト分類の精度と効率を効果的に向上する。
論文 参考訳(メタデータ) (2024-08-09T23:25:37Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Hierarchical Knowledge Distillation on Text Graph for Data-limited
Attribute Inference [5.618638372635474]
我々は,ソーシャルメディアのテキストデータに基づく属性推論のためのテキストグラフに基づく少ショット学習モデルを開発した。
我々のモデルはまず、多様体学習とメッセージパッシングを用いてテキストグラフを構築し、洗練する。
クロスドメインテキストと未ラベルテキストをさらに活用して、少数ショットのパフォーマンスを向上させるために、テキストグラフ上で階層的な知識蒸留が考案される。
論文 参考訳(メタデータ) (2024-01-10T05:50:34Z) - ChatGraph: Interpretable Text Classification by Converting ChatGPT
Knowledge to Graphs [54.48467003509595]
ChatGPTは、様々な自然言語処理(NLP)タスクにおいて優れたパフォーマンスを示している。
テキスト分類などの特定のタスクにChatGPTのパワーを利用する新しいフレームワークを提案する。
本手法は,従来のテキスト分類法と比較して,より透過的な意思決定プロセスを提供する。
論文 参考訳(メタデータ) (2023-05-03T19:57:43Z) - SLCNN: Sentence-Level Convolutional Neural Network for Text
Classification [0.0]
畳み込みニューラルネットワーク(CNN)は,テキスト分類のタスクにおいて顕著な成功を収めている。
CNNを用いたテキスト分類のための新しいベースラインモデルが研究されている。
結果から,提案したモデルの性能は,特に長いドキュメントにおいて向上していることがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:16:02Z) - A semantic hierarchical graph neural network for text classification [1.439766998338892]
本稿では,単語レベル,文レベル,文書レベルから対応する情報をそれぞれ抽出する階層型グラフニューラルネットワーク(HieGNN)を提案する。
いくつかのベンチマークデータセットの実験結果は、いくつかのベースライン手法と比較して、より良い、または類似した結果が得られる。
論文 参考訳(メタデータ) (2022-09-15T03:59:31Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - LadRa-Net: Locally-Aware Dynamic Re-read Attention Net for Sentence
Semantic Matching [66.65398852962177]
文意味マッチングのための新しい動的再読ネットワーク(DRr-Net)を開発した。
DRr-Netをローカルに認識する動的再読み取り注意ネット(LadRa-Net)に拡張する
2つの一般的な文意味マッチングタスクの実験により、DRr-Netは文意味マッチングの性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-08-06T02:07:04Z) - Enhancing Extractive Text Summarization with Topic-Aware Graph Neural
Networks [21.379555672973975]
本稿では,グラフニューラルネットワーク(GNN)に基づく抽出要約モデルを提案する。
本モデルでは,文章選択のための文書レベルの特徴を提供する潜在トピックを発見するために,共同ニューラルトピックモデル(NTM)を統合している。
実験結果から,CNN/DMおよびNYTデータセットにおいて,本モデルがほぼ最先端の結果が得られることが示された。
論文 参考訳(メタデータ) (2020-10-13T09:30:04Z) - Learning Interpretable and Discrete Representations with Adversarial
Training for Unsupervised Text Classification [87.28408260725138]
TIGANは、テキストを離散コードと連続ノイズを含む2つの非絡み合った表現にエンコードすることを学ぶ。
抽出したトピックの単語は,TIGANが一貫性と高度に解釈可能なトピックを学習していることを示している。
論文 参考訳(メタデータ) (2020-04-28T02:53:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。