論文の概要: HeteGCN: Heterogeneous Graph Convolutional Networks for Text
Classification
- arxiv url: http://arxiv.org/abs/2008.12842v1
- Date: Wed, 19 Aug 2020 12:24:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 08:42:01.069397
- Title: HeteGCN: Heterogeneous Graph Convolutional Networks for Text
Classification
- Title(参考訳): HeteGCN:テキスト分類のための不均一グラフ畳み込みネットワーク
- Authors: Rahul Ragesh, Sundararajan Sellamanickam, Arun Iyer, Ram Bairi, Vijay
Lingam
- Abstract要約: 我々はヘテロジニアスグラフ畳み込みネットワーク(HeteGCN)モデリング手法を提案する。
主なアイデアは、機能埋め込みを学び、HeteGCNアーキテクチャを使ってドキュメント埋め込みを導出することである。
事実上、モデルパラメータの数は大幅に削減され、小さなラベル付きトレーニングセットのシナリオにおいて、より高速なトレーニングとパフォーマンスの向上が可能になる。
- 参考スコア(独自算出の注目度): 1.9739269019020032
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of learning efficient and inductive graph
convolutional networks for text classification with a large number of examples
and features. Existing state-of-the-art graph embedding based methods such as
predictive text embedding (PTE) and TextGCN have shortcomings in terms of
predictive performance, scalability and inductive capability. To address these
limitations, we propose a heterogeneous graph convolutional network (HeteGCN)
modeling approach that unites the best aspects of PTE and TextGCN together. The
main idea is to learn feature embeddings and derive document embeddings using a
HeteGCN architecture with different graphs used across layers. We simplify
TextGCN by dissecting into several HeteGCN models which (a) helps to study the
usefulness of individual models and (b) offers flexibility in fusing learned
embeddings from different models. In effect, the number of model parameters is
reduced significantly, enabling faster training and improving performance in
small labeled training set scenario. Our detailed experimental studies
demonstrate the efficacy of the proposed approach.
- Abstract(参考訳): テキスト分類における効率性および帰納的グラフ畳み込みネットワークの課題について,多くの例と特徴を用いて考察する。
予測テキスト埋め込み(PTE)やTextGCNのような既存の最先端グラフ埋め込み方式は、予測性能、スケーラビリティ、インダクティブ能力の面で欠点がある。
これらの制約に対処するために、PTEとTextGCNの最良の側面を統一するヘテロジニアスグラフ畳み込みネットワーク(HeteGCN)モデリング手法を提案する。
主なアイデアは、機能埋め込みを学び、レイヤ間で異なるグラフを使用したHeteGCNアーキテクチャを使ってドキュメント埋め込みを導出することである。
テキストGCNを複数のHeteGCNモデルに分割することで単純化する。
(a)個々のモデルの有用性を研究するのに役立ち、
(b)異なるモデルから学習した埋め込みを活用できる柔軟性を提供する。
結果として、モデルパラメータの数は大幅に削減され、小さなラベル付きトレーニングセットシナリオにおいて、より高速なトレーニングとパフォーマンス向上が可能になる。
本研究は,提案手法の有効性を実証するものである。
関連論文リスト
- Learning How to Propagate Messages in Graph Neural Networks [55.2083896686782]
本稿では,グラフニューラルネットワーク(GNN)におけるメッセージ伝搬戦略の学習問題について検討する。
本稿では,GNNパラメータの最大類似度推定を支援するために,最適伝搬ステップを潜時変数として導入する。
提案フレームワークは,GNNにおけるメッセージのパーソナライズおよび解釈可能な伝達戦略を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-10-01T15:09:59Z) - Connecting the Dots: What Graph-Based Text Representations Work Best for
Text Classification Using Graph Neural Networks? [25.898812694174772]
本研究は,テキスト分類のためのグラフ表現手法を幅広く研究する。
各種GNNアーキテクチャとセットアップを用いて,グラフ構築方式を比較した。
2つのTransformerベースの大規模言語モデルもこの研究を補完するために含まれている。
論文 参考訳(メタデータ) (2023-05-23T23:31:24Z) - Improving Subgraph Representation Learning via Multi-View Augmentation [6.907772294522709]
グラフニューラルネットワーク(GNN)に基づくグラフ表現学習は、化学や生物学に広く応用されている。
サブグラフ表現学習を改善し,下流予測タスクの精度を向上させるための,新しいマルチビュー拡張機構を開発した。
論文 参考訳(メタデータ) (2022-05-25T20:17:13Z) - SStaGCN: Simplified stacking based graph convolutional networks [2.556756699768804]
グラフ畳み込みネットワーク(GCN)は、様々なグラフ構造データ学習タスクにおいて広く研究されている強力なモデルである。
本稿では, SStaGCN (Simplified stacking based GCN) と呼ばれる新しいGCNを提案する。
SStaGCNはGCNの過密問題を効果的に軽減できることを示す。
論文 参考訳(メタデータ) (2021-11-16T05:00:08Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Simple and Deep Graph Convolutional Networks [63.76221532439285]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データに対する強力なディープラーニングアプローチである。
その成功にもかかわらず、現在のGCNモデルは、エムの過度に滑らかな問題のため、ほとんどが浅くなっている。
本稿では,2つの単純かつ効果的な手法を用いて,バニラGCNモデルを拡張したGCNIIを提案する。
論文 参考訳(メタデータ) (2020-07-04T16:18:06Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Knowledge Embedding Based Graph Convolutional Network [35.35776808660919]
本稿では,知識埋め込みに基づくグラフ畳み込みネットワーク(KE-GCN)という新しいフレームワークを提案する。
KE-GCNはグラフベースの信念伝播におけるグラフ畳み込みネットワーク(GCN)のパワーと高度な知識埋め込み手法の強みを組み合わせたものである。
理論的解析により、KE-GCNはいくつかのよく知られたGCN法のエレガントな統一を具体例として示している。
論文 参考訳(メタデータ) (2020-06-12T17:12:51Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z) - Cross-GCN: Enhancing Graph Convolutional Network with $k$-Order Feature
Interactions [153.6357310444093]
Graph Convolutional Network(GCN)は,グラフデータの学習と推論を行う新興技術である。
我々は、GCNの既存の設計がクロスフィーチャをモデリングし、クロスフィーチャが重要であるタスクやデータに対してGCNの効率を損なうことを論じている。
我々は、任意の次交叉特徴を、特徴次元と順序サイズに線形に複雑にモデル化した、クロスフィーチャーグラフ畳み込みという新しい演算子を設計する。
論文 参考訳(メタデータ) (2020-03-05T13:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。