論文の概要: A Novel Graph-Sequence Learning Model for Inductive Text Classification
- arxiv url: http://arxiv.org/abs/2512.20097v1
- Date: Tue, 23 Dec 2025 06:49:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.776303
- Title: A Novel Graph-Sequence Learning Model for Inductive Text Classification
- Title(参考訳): インダクティブテキスト分類のための新しいグラフ系列学習モデル
- Authors: Zuo Wang, Ye Yuan,
- Abstract要約: テキスト分類は、感情分析、偽ニュース検出、世論分析など、下流のテキスト関連タスクにおいて重要な役割を果たしている。
本稿では,先述の問題に対処する新しいグラフシーケンス学習モデル(TextGSL)を提案する。
TextGSLは、いくつかの強力なベースラインと包括的に比較されている。
- 参考スコア(独自算出の注目度): 7.129773362505109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text classification plays an important role in various downstream text-related tasks, such as sentiment analysis, fake news detection, and public opinion analysis. Recently, text classification based on Graph Neural Networks (GNNs) has made significant progress due to their strong capabilities of structural relationship learning. However, these approaches still face two major limitations. First, these approaches fail to fully consider the diverse structural information across word pairs, e.g., co-occurrence, syntax, and semantics. Furthermore, they neglect sequence information in the text graph structure information learning module and can not classify texts with new words and relations. In this paper, we propose a Novel Graph-Sequence Learning Model for Inductive Text Classification (TextGSL) to address the previously mentioned issues. More specifically, we construct a single text-level graph for all words in each text and establish different edge types based on the diverse relationships between word pairs. Building upon this, we design an adaptive multi-edge message-passing paradigm to aggregate diverse structural information between word pairs. Additionally, sequential information among text data can be captured by the proposed TextGSL through the incorporation of Transformer layers. Therefore, TextGSL can learn more discriminative text representations. TextGSL has been comprehensively compared with several strong baselines. The experimental results on diverse benchmarking datasets demonstrate that TextGSL outperforms these baselines in terms of accuracy.
- Abstract(参考訳): テキスト分類は、感情分析、偽ニュース検出、世論分析など、下流のテキスト関連タスクにおいて重要な役割を果たしている。
近年,グラフニューラルネットワーク(GNN)に基づくテキスト分類は,構造的関係学習の強い能力により,大きな進歩を遂げている。
しかし、これらのアプローチには2つの大きな制限がある。
第一に、これらのアプローチは単語対、例えば共起、構文、意味論といった様々な構造情報を十分に考慮することができない。
さらに、テキストグラフ構造情報学習モジュールのシーケンス情報を無視し、新しい単語と関係を持つテキストを分類できない。
本稿では,先述した問題に対処するため,インダクティブテキスト分類のための新しいグラフ系列学習モデル(TextGSL)を提案する。
より具体的には、各テキスト中のすべての単語に対して単一のテキストレベルグラフを構築し、単語ペア間の多様な関係に基づいて異なるエッジタイプを確立する。
これに基づいて,単語ペア間の多様な構造情報を集約する適応型マルチエッジメッセージパッシングパラダイムを設計する。
さらに、テキストデータ間のシーケンシャル情報は、トランスフォーマー層を組み込んで提案したTextGSLによってキャプチャすることができる。
そのため、TextGSLはより差別的なテキスト表現を学習することができる。
TextGSLは、いくつかの強力なベースラインと包括的に比較されている。
多様なベンチマークデータセットの実験結果は、TextGSLがこれらのベースラインを精度で上回っていることを示している。
関連論文リスト
- Integrating Structural and Semantic Signals in Text-Attributed Graphs with BiGTex [0.0]
BiGTexは、スタック化されたGraph-Text Fusion Unitを通じてGNNとLLMを密に統合する新しいアーキテクチャである。
BiGTexはノード分類における最先端性能を実現し、リンク予測に効果的に一般化する。
論文 参考訳(メタデータ) (2025-04-16T20:25:11Z) - Scene Graph Generation with Role-Playing Large Language Models [50.252588437973245]
オープン語彙シーングラフ生成(OVSGG)に対する現在のアプローチは、CLIPのような視覚言語モデルを使用している。
シーン固有の記述に基づくOVSGGフレームワークであるSDSGGを提案する。
対象と対象の複雑な相互作用を捉えるために,相互視覚アダプタと呼ばれる軽量モジュールを提案する。
論文 参考訳(メタデータ) (2024-10-20T11:40:31Z) - Pretraining Language Models with Text-Attributed Heterogeneous Graphs [28.579509154284448]
テキスト分散不均質グラフ(TAHG)におけるトポロジ的および異種情報を明確に考察する言語モデル(LM)のための新しい事前学習フレームワークを提案する。
本稿では、LMと補助異種グラフニューラルネットワークを協調最適化することにより、コンテキストグラフに関わるノードを予測するトポロジ対応事前学習タスクを提案する。
各種ドメインの3つのデータセット上でリンク予測とノード分類を行う。
論文 参考訳(メタデータ) (2023-10-19T08:41:21Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - How much do language models copy from their training data? Evaluating
linguistic novelty in text generation using RAVEN [63.79300884115027]
現在の言語モデルは高品質なテキストを生成することができる。
彼らは、これまで見たテキストを単にコピーしているか、それとも一般化可能な言語的抽象化を学んだのか?
本稿では、生成したテキストの新規性を評価するための分析スイートであるRAVENを紹介する。
論文 参考訳(メタデータ) (2021-11-18T04:07:09Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation [49.89831914386982]
本研究では, 構造化されていないテキスト, 半構造化されたテキスト, 十分に構造化されたテキストを含む, あらゆる形式のテキストに対して, 統一された事前学習言語モデル (PLM) を提案する。
提案手法は,データの1/4のみを用いて,プレーンテキストの事前学習に優れる。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - Minimally-Supervised Structure-Rich Text Categorization via Learning on
Text-Rich Networks [61.23408995934415]
テキストリッチネットワークから学習することで,最小限に教師付き分類を行う新しいフレームワークを提案する。
具体的には、テキスト理解のためのテキスト解析モジュールと、クラス差別的でスケーラブルなネットワーク学習のためのネットワーク学習モジュールの2つのモジュールを共同でトレーニングします。
実験の結果,1つのカテゴリに3つのシード文書しか与えられず,その精度は約92%であった。
論文 参考訳(メタデータ) (2021-02-23T04:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。