論文の概要: Word Grounded Graph Convolutional Network
- arxiv url: http://arxiv.org/abs/2305.06434v1
- Date: Wed, 10 May 2023 19:56:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 16:46:04.677647
- Title: Word Grounded Graph Convolutional Network
- Title(参考訳): 単語接地グラフ畳み込みネットワーク
- Authors: Zhibin Lu, Qianqian Xie, Benyou Wang, Jian-yun Nie
- Abstract要約: グラフ畳み込みネットワーク(GCN)は、テキスト分類などの様々なタスクにおけるテキスト表現の学習において、高いパフォーマンスを示している。
本稿では,文書非依存グラフを用いて,文書グラフをワードグラフに変換し,データサンプルとGCNモデルを分離することを提案する。
提案したWord-level Graph(WGraph)は、コーパスで一般的に使われている単語共起による単語表現を暗黙的に学習するだけでなく、さらにグローバルなセマンティック依存も含んでいる。
- 参考スコア(独自算出の注目度): 24.6338889954789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have shown strong performance in learning
text representations for various tasks such as text classification, due to its
expressive power in modeling graph structure data (e.g., a literature citation
network). Most existing GCNs are limited to deal with documents included in a
pre-defined graph, i.e., it cannot be generalized to out-of-graph documents. To
address this issue, we propose to transform the document graph into a word
graph, to decouple data samples (i.e., documents in training and test sets) and
a GCN model by using a document-independent graph. Such word-level GCN could
therefore naturally inference out-of-graph documents in an inductive way. The
proposed Word-level Graph (WGraph) can not only implicitly learning word
presentation with commonly-used word co-occurrences in corpora, but also
incorporate extra global semantic dependency derived from inter-document
relationships (e.g., literature citations). An inductive Word-grounded Graph
Convolutional Network (WGCN) is proposed to learn word and document
representations based on WGraph in a supervised manner. Experiments on text
classification with and without citation networks evidence that the proposed
WGCN model outperforms existing methods in terms of effectiveness and
efficiency.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、グラフ構造データ(例えば、文献引用ネットワーク)のモデル化における表現力から、テキスト分類などの様々なタスクにおけるテキスト表現の学習において、高いパフォーマンスを示している。
既存のgcnのほとんどは、事前に定義されたグラフに含まれるドキュメントを扱うために制限されている。
この問題に対処するため,文書依存グラフを用いて文書グラフをワードグラフに変換し,データサンプル(トレーニングおよびテストセットにおける文書)とGCNモデルを分離することを提案する。
このような単語レベルのGCNは、自然に文書を帰納的に推測することができる。
提案したWord-level Graph(WGraph)は、コーパスで一般的に使われている単語共起による単語表現を暗黙的に学習するだけでなく、文書間関係(例えば文献引用)から派生した追加のグローバルな意味的依存も含んでいる。
WGraphに基づく単語と文書の表現を教師付きで学習するために,誘導型Word-grounded Graph Convolutional Network (WGCN)を提案する。
引用ネットワークと非引用ネットワークを用いたテキスト分類実験は、提案したWGCNモデルは、有効性と効率の点で既存の手法よりも優れていることを示す。
関連論文リスト
- Graph Neural Networks on Discriminative Graphs of Words [19.817473565906777]
本研究では,単語グラフニューラルネットワーク(DGoW-GNN)によるテキストの識別手法を提案する。
本稿では,GNNとシーケンスモデルを組み合わせたグラフベースのテキスト分類の新しいモデルを提案する。
提案手法を7つのベンチマークデータセットで評価し,いくつかの最先端ベースラインモデルにより性能が向上していることを確認した。
論文 参考訳(メタデータ) (2024-10-27T15:14:06Z) - Scientific Paper Extractive Summarization Enhanced by Citation Graphs [50.19266650000948]
我々は、引用グラフを活用して、異なる設定下での科学的論文の抽出要約を改善することに重点を置いている。
予備的な結果は、単純な教師なしフレームワークであっても、引用グラフが有用であることを示している。
そこで我々は,大規模ラベル付きデータが利用可能である場合のタスクにおいて,より正確な結果を得るために,グラフベースのスーパービジョン・サムライゼーション・モデル(GSS)を提案する。
論文 参考訳(メタデータ) (2022-12-08T11:53:12Z) - Semi-Supervised Hierarchical Graph Classification [54.25165160435073]
ノードがグラフのインスタンスである階層グラフにおけるノード分類問題について検討する。
本稿では階層グラフ相互情報(HGMI)を提案し,理論的保証をもってHGMIを計算する方法を提案する。
本稿では,この階層グラフモデリングとSEAL-CI法がテキストおよびソーシャルネットワークデータに与える影響を実証する。
論文 参考訳(メタデータ) (2022-06-11T04:05:29Z) - FactGraph: Evaluating Factuality in Summarization with Semantic Graph
Representations [114.94628499698096]
文書と要約を構造化された意味表現(MR)に分解するFactGraphを提案する。
MRは、コアセマンティックの概念とその関係を記述し、文書と要約の両方の主要な内容を標準形式で集約し、データの疎結合を減少させる。
事実性を評価するための異なるベンチマークの実験では、FactGraphは以前のアプローチよりも最大15%優れていた。
論文 参考訳(メタデータ) (2022-04-13T16:45:33Z) - ME-GCN: Multi-dimensional Edge-Embedded Graph Convolutional Networks for
Semi-supervised Text Classification [6.196387205547024]
本稿では,半教師付きテキスト分類のためのME-GCN (Multi-dimensional Edge-enhanced Graph Convolutional Networks)を提案する。
提案モデルでは,8つのベンチマークデータセット間で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-04-10T07:05:12Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Sparse Structure Learning via Graph Neural Networks for Inductive
Document Classification [2.064612766965483]
帰納的文書分類のための新しいGNNに基づくスパース構造学習モデルを提案する。
本モデルでは,文間の不連続な単語を接続する訓練可能なエッジの集合を収集し,動的文脈依存性を持つエッジを疎結合に選択するために構造学習を用いる。
いくつかの実世界のデータセットの実験では、提案されたモデルがほとんどの最先端の結果より優れていることが示されている。
論文 参考訳(メタデータ) (2021-12-13T02:36:04Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Neural Topic Modeling by Incorporating Document Relationship Graph [18.692100955163713]
グラフトピックモデル(GTM)は、コーパスを文書関係グラフとして表現したGNNベースのニューラルトピックモデルである。
コーパス内の文書と単語はグラフ内のノードとなり、文書と単語の共起に基づいて接続される。
論文 参考訳(メタデータ) (2020-09-29T12:45:55Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Every Document Owns Its Structure: Inductive Text Classification via
Graph Neural Networks [22.91359631452695]
グラフニューラルネットワーク(GNN)を用いたインダクティブテキスト分類のためのテクスティングを提案する。
まず、各文書の個々のグラフを作成し、次にGNNを用いて局所構造に基づいて粒度の細かい単語表現を学習する。
本手法は,最先端のテキスト分類法より優れている。
論文 参考訳(メタデータ) (2020-04-22T07:23:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。