論文の概要: \textsc{Text2Graph}: Combining Lightweight LLMs and GNNs for Efficient Text Classification in Label-Scarce Scenarios
- arxiv url: http://arxiv.org/abs/2512.10061v1
- Date: Wed, 10 Dec 2025 20:31:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.054335
- Title: \textsc{Text2Graph}: Combining Lightweight LLMs and GNNs for Efficient Text Classification in Label-Scarce Scenarios
- Title(参考訳): \textsc{Text2Graph}: ラベル・スカースシナリオにおける効率的なテキスト分類のための軽量LLMとGNNの組み合わせ
- Authors: João Lucas Luz Lima Sarcinelli, Ricardo Marcondes Marcacini,
- Abstract要約: 我々は、TextscText2GraphというオープンソースのPythonパッケージを紹介し、テキストからグラフへの分類アプローチのモジュール実装を提供する。
我々は、トピック分類と感情分析タスクにまたがる5つのデータセットを用いて、ゼロショット設定でtextscText2Graphをベンチマークした。
報告性能に加えて,エネルギー消費と炭素排出量の詳細な推定結果も提示し,グラフベースの伝搬がエネルギーと環境コストのごく一部で競争結果を達成することを示した。
- 参考スコア(独自算出の注目度): 1.0885910878567457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have become effective zero-shot classifiers, but their high computational requirements and environmental costs limit their practicality for large-scale annotation in high-performance computing (HPC) environments. To support more sustainable workflows, we present \textsc{Text2Graph}, an open-source Python package that provides a modular implementation of existing text-to-graph classification approaches. The framework enables users to combine LLM-based partial annotation with Graph Neural Network (GNN) label propagation in a flexible manner, making it straightforward to swap components such as feature extractors, edge construction methods, and sampling strategies. We benchmark \textsc{Text2Graph} on a zero-shot setting using five datasets spanning topic classification and sentiment analysis tasks, comparing multiple variants against other zero-shot approaches for text classification. In addition to reporting performance, we provide detailed estimates of energy consumption and carbon emissions, showing that graph-based propagation achieves competitive results at a fraction of the energy and environmental cost.
- Abstract(参考訳): 大規模言語モデル(LLM)はゼロショット分類器として有効なものとなっているが、その高い計算要求と環境コストは、ハイパフォーマンスコンピューティング(HPC)環境での大規模アノテーションの実用性を制限している。
より持続可能なワークフローをサポートするために、既存のテキスト-グラフ分類アプローチのモジュール化実装を提供するオープンソースのPythonパッケージである \textsc{Text2Graph} を提示する。
このフレームワークは、LLMベースの部分アノテーションとグラフニューラルネットワーク(GNN)ラベルの伝搬を柔軟に組み合わせることを可能にし、特徴抽出器やエッジ構築方法、サンプリング戦略などのコンポーネントを簡単に交換することができる。
我々は、トピック分類と感情分析タスクにまたがる5つのデータセットを用いて、ゼロショット設定で \textsc{Text2Graph} をベンチマークし、テキスト分類のための他のゼロショットアプローチと比較した。
報告性能に加えて,エネルギー消費と炭素排出量の詳細な推定を行い,グラフベースの伝播がエネルギーと環境コストのごく一部で競争結果を達成することを示す。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - Graph-based Retrieval Augmented Generation for Dynamic Few-shot Text Classification [15.0627807767152]
本稿では,動的少ショットテキスト分類のためのグラフベースのオンライン検索拡張生成フレームワークであるGORAGを提案する。
GORAGは、すべてのターゲットテキストの側情報を抽出して重み付きグラフを構築し、維持する。
実証的な評価は、GORAGがより包括的で正確な文脈情報を提供することで、既存のアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2025-01-06T08:43:31Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - STAGE: Simplified Text-Attributed Graph Embeddings Using Pre-trained LLMs [1.4624458429745086]
テキスト分散グラフ(TAG)を符号化するグラフニューラルネットワーク(GNN)モデルにおけるノード機能向上手法を提案する。
本手法では,Large-Language Models (LLMs) を用いてテキスト属性の埋め込みを生成する。
我々は,事前学習したLLMを埋め込みジェネレータとして利用することにより,GNNのアンサンブルトレーニングに堅牢な機能を実現することを示す。
論文 参考訳(メタデータ) (2024-07-10T08:50:25Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Leveraging Large Language Models for Node Generation in Few-Shot Learning on Text-Attributed Graphs [5.587264586806575]
本稿では,Large Language Models (LLMs) を用いたノード生成によるテキスト分散グラフの強化のためのプラグイン・アンド・プレイ手法を提案する。
LLMはラベルから意味情報を抽出し、模範としてカテゴリに属するサンプルを生成する。
エッジ予測器を用いて、生のデータセットに固有の構造情報をキャプチャし、新たに生成されたサンプルを元のグラフに統合する。
論文 参考訳(メタデータ) (2023-10-15T16:04:28Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。