論文の概要: Graph-Augmented Relation Extraction Model with LLMs-Generated Support Document
- arxiv url: http://arxiv.org/abs/2410.23452v1
- Date: Wed, 30 Oct 2024 20:48:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:03:30.786460
- Title: Graph-Augmented Relation Extraction Model with LLMs-Generated Support Document
- Title(参考訳): LLMを用いたグラフ拡張関係抽出モデル
- Authors: Vicky Dong, Hao Yu, Yao Chen,
- Abstract要約: 本研究では,文レベルの関係抽出(RE)に対する新しいアプローチを提案する。
グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)を統合し、コンテキストに富んだサポートドキュメントを生成する。
そこで,CrossREデータセットを用いて実験を行い,本手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 7.0421339410165045
- License:
- Abstract: This study introduces a novel approach to sentence-level relation extraction (RE) that integrates Graph Neural Networks (GNNs) with Large Language Models (LLMs) to generate contextually enriched support documents. By harnessing the power of LLMs to generate auxiliary information, our approach crafts an intricate graph representation of textual data. This graph is subsequently processed through a Graph Neural Network (GNN) to refine and enrich the embeddings associated with each entity ensuring a more nuanced and interconnected understanding of the data. This methodology addresses the limitations of traditional sentence-level RE models by incorporating broader contexts and leveraging inter-entity interactions, thereby improving the model's ability to capture complex relationships across sentences. Our experiments, conducted on the CrossRE dataset, demonstrate the effectiveness of our approach, with notable improvements in performance across various domains. The results underscore the potential of combining GNNs with LLM-generated context to advance the field of relation extraction.
- Abstract(参考訳): 本研究では,グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)を統合し,文脈に富んだサポート文書を生成する文レベルの関係抽出(RE)手法を提案する。
LLMのパワーを利用して補助情報を生成することで,テキストデータの複雑なグラフ表現を実現する。
このグラフはその後、グラフニューラルネットワーク(GNN)を通じて処理され、各エンティティに関連する埋め込みを洗練し、強化することで、データのよりニュアンスで相互接続された理解を保証する。
この手法は、より広い文脈を組み込んだ従来の文レベルのREモデルの制限に対処し、文間の相互作用を活用することにより、文間の複雑な関係を捕捉するモデルの能力を向上させる。
また,CrossREデータセットを用いて実験を行い,本手法の有効性を実証した。
その結果、GNNとLLM生成コンテキストを組み合わせることにより、関係抽出の分野を推し進める可能性が示唆された。
関連論文リスト
- Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Unleashing the Potential of Text-attributed Graphs: Automatic Relation Decomposition via Large Language Models [31.443478448031886]
RoSE (Relation-oriented Semantic Edge-Decomposition) は、生のテキスト属性を分析してグラフ構造を分解する新しいフレームワークである。
我々のフレームワークは、さまざまなデータセットのノード分類性能を大幅に向上させ、ウィスコンシンデータセットでは最大16%の改善を実現した。
論文 参考訳(メタデータ) (2024-05-28T20:54:47Z) - G-SAP: Graph-based Structure-Aware Prompt Learning over Heterogeneous Knowledge for Commonsense Reasoning [8.02547453169677]
本稿では,G-SAP という名称のコモンセンス推論のためのグラフベース構造認識プロンプト学習モデルを提案する。
特にエビデンスグラフは、ConceptNet、Wikipedia、Cambridge Dictionaryといった複数の知識ソースを統合することで構築される。
その結果、既存のモデル、特にOpenbookQAデータセット上のSoTA LM+GNNsモデルよりも6.12%改善された。
論文 参考訳(メタデータ) (2024-05-09T08:28:12Z) - Relating-Up: Advancing Graph Neural Networks through Inter-Graph Relationships [17.978546172777342]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学ぶのに優れています。
彼らの成功にもかかわらず、GNNはグラフ間の関係のコンテキストを無視して制限される。
本稿では,グラフ間の関係を利用してGNNを強化するプラグイン・アンド・プレイモジュールであるRelating-Upを紹介する。
論文 参考訳(メタデータ) (2024-05-07T02:16:54Z) - Relational Graph Convolutional Networks for Sentiment Analysis [0.0]
Graph Convolutional Networks(NRGC)は、グラフ内のノードとして表されるデータポイント間の依存関係をキャプチャすることで、解釈性と柔軟性を提供する。
本稿では,Amazon および Digikala データセットの製品レビューにおいて,BERT や RoBERTa などの事前学習言語モデルと RGCN アーキテクチャを用いたアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-04-16T07:27:49Z) - LLM-Enhanced User-Item Interactions: Leveraging Edge Information for
Optimized Recommendations [28.77605585519833]
近年の人気のある研究分野であるグラフニューラルネットワークは、関係マイニングについて多くの研究を行っている。
グラフニューラルネットワークにおける現在の最先端の研究は、大きな言語モデルと効果的に統合されていない。
本稿では,LLMの強い文脈表現能力とGNNの関係抽出と解析機能を組み合わせた,革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-14T23:12:09Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。