論文の概要: Sparse Structure Learning via Graph Neural Networks for Inductive
Document Classification
- arxiv url: http://arxiv.org/abs/2112.06386v1
- Date: Mon, 13 Dec 2021 02:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-15 05:56:24.503653
- Title: Sparse Structure Learning via Graph Neural Networks for Inductive
Document Classification
- Title(参考訳): 誘導的文書分類のためのグラフニューラルネットワークによるスパース構造学習
- Authors: Yinhua Piao, Sangseon Lee, Dohoon Lee, Sun Kim
- Abstract要約: 帰納的文書分類のための新しいGNNに基づくスパース構造学習モデルを提案する。
本モデルでは,文間の不連続な単語を接続する訓練可能なエッジの集合を収集し,動的文脈依存性を持つエッジを疎結合に選択するために構造学習を用いる。
いくつかの実世界のデータセットの実験では、提案されたモデルがほとんどの最先端の結果より優れていることが示されている。
- 参考スコア(独自算出の注目度): 2.064612766965483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, graph neural networks (GNNs) have been widely used for document
classification. However, most existing methods are based on static word
co-occurrence graphs without sentence-level information, which poses three
challenges:(1) word ambiguity, (2) word synonymity, and (3) dynamic contextual
dependency. To address these challenges, we propose a novel GNN-based sparse
structure learning model for inductive document classification. Specifically, a
document-level graph is initially generated by a disjoint union of
sentence-level word co-occurrence graphs. Our model collects a set of trainable
edges connecting disjoint words between sentences and employs structure
learning to sparsely select edges with dynamic contextual dependencies. Graphs
with sparse structures can jointly exploit local and global contextual
information in documents through GNNs. For inductive learning, the refined
document graph is further fed into a general readout function for graph-level
classification and optimization in an end-to-end manner. Extensive experiments
on several real-world datasets demonstrate that the proposed model outperforms
most state-of-the-art results, and reveal the necessity to learn sparse
structures for each document.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)が文書分類に広く利用されている。
しかし,既存の手法の多くは文レベルの情報を持たない静的な単語共起グラフに基づいているため,(1)単語曖昧性,(2)単語同義性,(3)動的文脈依存の3つの課題が生じる。
これらの課題に対処するために,本研究では, GNN を用いた新しいスパース構造学習モデルを提案する。
具体的には、文書レベルのグラフは、まず文レベルの単語共起グラフの不一致結合によって生成される。
本モデルでは,文間の不一致語を連結する訓練可能なエッジの集合を収集し,動的文脈依存性を持つエッジを疎結合に選択する構造学習を用いる。
スパース構造を持つグラフは、GNNを通じて文書内のローカルおよびグローバルコンテキスト情報を共同で活用することができる。
インダクティブ学習の場合、洗練された文書グラフは、エンドツーエンドでグラフレベルの分類と最適化のための一般的な読み出し関数にさらに供給される。
いくつかの実世界のデータセットに関する広範囲な実験により、提案されたモデルは最先端の結果よりも優れており、各ドキュメントのスパース構造を学ぶ必要性が明らかになった。
関連論文リスト
- Graph Neural Networks on Discriminative Graphs of Words [19.817473565906777]
本研究では,単語グラフニューラルネットワーク(DGoW-GNN)によるテキストの識別手法を提案する。
本稿では,GNNとシーケンスモデルを組み合わせたグラフベースのテキスト分類の新しいモデルを提案する。
提案手法を7つのベンチマークデータセットで評価し,いくつかの最先端ベースラインモデルにより性能が向上していることを確認した。
論文 参考訳(メタデータ) (2024-10-27T15:14:06Z) - GraphLSS: Integrating Lexical, Structural, and Semantic Features for Long Document Extractive Summarization [19.505955857963855]
長い文書抽出要約のための異種グラフ構造であるGraphLSSを提案する。
補助学習モデルを必要としない2種類の情報(単語と文)と4種類のエッジ(文の意味的類似性、文発生順序、文中の単語、単語の意味的類似性)を定義する。
論文 参考訳(メタデータ) (2024-10-25T23:48:59Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Word Grounded Graph Convolutional Network [24.6338889954789]
グラフ畳み込みネットワーク(GCN)は、テキスト分類などの様々なタスクにおけるテキスト表現の学習において、高いパフォーマンスを示している。
本稿では,文書非依存グラフを用いて,文書グラフをワードグラフに変換し,データサンプルとGCNモデルを分離することを提案する。
提案したWord-level Graph(WGraph)は、コーパスで一般的に使われている単語共起による単語表現を暗黙的に学習するだけでなく、さらにグローバルなセマンティック依存も含んでいる。
論文 参考訳(メタデータ) (2023-05-10T19:56:55Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Neural Topic Modeling by Incorporating Document Relationship Graph [18.692100955163713]
グラフトピックモデル(GTM)は、コーパスを文書関係グラフとして表現したGNNベースのニューラルトピックモデルである。
コーパス内の文書と単語はグラフ内のノードとなり、文書と単語の共起に基づいて接続される。
論文 参考訳(メタデータ) (2020-09-29T12:45:55Z) - Heterogeneous Graph Neural Networks for Extractive Document
Summarization [101.17980994606836]
クロス文関係は、抽出文書要約における重要なステップである。
We present a graph-based neural network for extractive summarization (HeterSumGraph)
抽出文書要約のためのグラフベースニューラルネットワークに異なる種類のノードを導入する。
論文 参考訳(メタデータ) (2020-04-26T14:38:11Z) - Every Document Owns Its Structure: Inductive Text Classification via
Graph Neural Networks [22.91359631452695]
グラフニューラルネットワーク(GNN)を用いたインダクティブテキスト分類のためのテクスティングを提案する。
まず、各文書の個々のグラフを作成し、次にGNNを用いて局所構造に基づいて粒度の細かい単語表現を学習する。
本手法は,最先端のテキスト分類法より優れている。
論文 参考訳(メタデータ) (2020-04-22T07:23:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。