論文の概要: Modeling Global and Local Node Contexts for Text Generation from
Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2001.11003v2
- Date: Mon, 22 Jun 2020 16:34:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:12:15.281227
- Title: Modeling Global and Local Node Contexts for Text Generation from
Knowledge Graphs
- Title(参考訳): 知識グラフからのテキスト生成のためのグローバルおよびローカルノードコンテキストのモデリング
- Authors: Leonardo F. R. Ribeiro, Yue Zhang, Claire Gardent and Iryna Gurevych
- Abstract要約: 最近のグラフ・トゥ・テキストモデルでは、グローバル・アグリゲーションまたはローカル・アグリゲーションを使用してグラフベースのデータからテキストを生成する。
本稿では,グローバルなノードコンテキストとローカルなノードコンテキストを組み合わせた入力グラフを符号化するニューラルモデルを提案する。
われわれのアプローチは、2つのグラフからテキストへのデータセットに大きな改善をもたらす。
- 参考スコア(独自算出の注目度): 63.12058935995516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent graph-to-text models generate text from graph-based data using either
global or local aggregation to learn node representations. Global node encoding
allows explicit communication between two distant nodes, thereby neglecting
graph topology as all nodes are directly connected. In contrast, local node
encoding considers the relations between neighbor nodes capturing the graph
structure, but it can fail to capture long-range relations. In this work, we
gather both encoding strategies, proposing novel neural models which encode an
input graph combining both global and local node contexts, in order to learn
better contextualized node embeddings. In our experiments, we demonstrate that
our approaches lead to significant improvements on two graph-to-text datasets
achieving BLEU scores of 18.01 on AGENDA dataset, and 63.69 on the WebNLG
dataset for seen categories, outperforming state-of-the-art models by 3.7 and
3.1 points, respectively.
- Abstract(参考訳): 最近のgraph-to-textモデルは、グラフベースのデータからテキストを生成し、グローバルまたはローカルアグリゲーションを使用してノード表現を学習する。
グローバルノードエンコーディングは、2つの離れたノード間の明示的な通信を可能にする。
対照的に、局所ノード符号化はグラフ構造をキャプチャする隣ノード間の関係を考慮するが、長距離関係をキャプチャできない。
本研究では,グローバルなノードコンテキストとローカルなノードコンテキストを組み合わせた入力グラフを符号化するニューラルモデルを提案することによって,より優れたコンテキスト化ノード埋め込みを学習する。
実験では,AGENDAデータセットでは18.01点,WebNLGデータセットでは63.69点,最先端モデルでは3.7点,最先端モデルでは3.1点,グラフからテキストまでの2つのデータセットでは63.69点の大幅な改善が得られた。
関連論文リスト
- Differential Encoding for Improved Representation Learning over Graphs [15.791455338513815]
メッセージパッシングパラダイムとグローバルアテンションメカニズムは、基本的にノードの埋め込みを生成する。
支配的な情報がノード自身からなのか、あるいはノードの隣人からなのかは不明だ。
本稿では,失った情報の問題に対処する差分符号化手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T02:23:33Z) - Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Local Structure-aware Graph Contrastive Representation Learning [12.554113138406688]
複数のビューからノードの構造情報をモデル化するための局所構造対応グラフ比較表現学習法(LS-GCL)を提案する。
ローカルビューでは、各ターゲットノードのセマンティックサブグラフが共有GNNエンコーダに入力され、サブグラフレベルに埋め込まれたターゲットノードを取得する。
グローバルな視点では、元のグラフはノードの必要不可欠な意味情報を保存しているので、共有GNNエンコーダを利用して、グローバルなグラフレベルでターゲットノードの埋め込みを学習する。
論文 参考訳(メタデータ) (2023-08-07T03:23:46Z) - DigNet: Digging Clues from Local-Global Interactive Graph for
Aspect-level Sentiment Classification [0.685316573653194]
アスペクトレベルの感情分類(ASC)では、最先端モデルは構文グラフまたは関係グラフをエンコードする。
我々は,対話的なエッジを通じて2つのグラフを縫い合わせることで,その利点をマージする,新しいローカル・グローバル・インタラクティブグラフを設計する。
本稿では,DigNetと呼ばれる新しいニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-04T05:34:02Z) - Node-wise Localization of Graph Neural Networks [52.04194209002702]
グラフニューラルネットワーク(GNN)は、グラフ上の表現学習モデルの強力なファミリーとして出現する。
グラフのグローバルな側面とローカルな側面の両方を考慮し,GNNのノードワイドなローカライゼーションを提案する。
我々は,4つのベンチマークグラフに対して広範な実験を行い,最先端のGNNを超える有望な性能を継続的に獲得する。
論文 参考訳(メタデータ) (2021-10-27T10:02:03Z) - GraphFormers: GNN-nested Transformers for Representation Learning on
Textual Graph [53.70520466556453]
階層的にGNNコンポーネントを言語モデルのトランスフォーマーブロックと一緒にネストするGraphFormerを提案する。
提案したアーキテクチャでは、テキストエンコーディングとグラフ集約を反復的なワークフローに融合する。
さらに、プログレッシブ・ラーニング・ストラテジーを導入し、そのモデルが操作されたデータと元のデータに基づいて連続的に訓練され、グラフ上の情報を統合する能力を強化する。
論文 参考訳(メタデータ) (2021-05-06T12:20:41Z) - Modeling Graph Structure via Relative Position for Text Generation from
Knowledge Graphs [54.176285420428776]
グラフ-テキスト生成のための新しいトランスフォーマーベースのエンコーダデコーダアーキテクチャであるGraformerを提案する。
新たなグラフの自己アテンションでは、ノードのエンコーディングは入力グラフのすべてのノードに依存します。
グレーフォーマーは、これらのノード-ノードの関係を異なるアテンションヘッドに対して異なる重み付けを学習し、入力グラフの異なる連結ビューを仮想的に学習する。
論文 参考訳(メタデータ) (2020-06-16T15:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。