論文の概要: INFINITY: A Simple Yet Effective Unsupervised Framework for Graph-Text
Mutual Conversion
- arxiv url: http://arxiv.org/abs/2209.10754v1
- Date: Thu, 22 Sep 2022 03:12:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 12:41:20.633865
- Title: INFINITY: A Simple Yet Effective Unsupervised Framework for Graph-Text
Mutual Conversion
- Title(参考訳): INFINITY: グラフテキスト相互変換のためのシンプルで効果的な教師なしフレームワーク
- Authors: Yi Xu, Luoyi Fu, Zhouhan Lin, Jiexing Qi, Xinbing Wang
- Abstract要約: グラフ・ツー・テキスト(G2T)生成とテキスト・ツー・グラフ(T2G)トリプル抽出は知識グラフの構築と適用に不可欠である。
既存の教師なしのアプローチは、グラフテキスト並列データの使用を避けるため、2つのタスクを共同で学習するのに適した候補であることが判明した。
我々は、外部アノテーションツールや追加の並列情報を必要としない、シンプルで効果的な教師なしアプローチであるINFINITYを提案する。
- 参考スコア(独自算出の注目度): 43.70416280548082
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph-to-text (G2T) generation and text-to-graph (T2G) triple extraction are
two essential tasks for constructing and applying knowledge graphs. Existing
unsupervised approaches turn out to be suitable candidates for jointly learning
the two tasks due to their avoidance of using graph-text parallel data.
However, they are composed of multiple modules and still require both entity
information and relation type in the training process. To this end, we propose
INFINITY, a simple yet effective unsupervised approach that does not require
external annotation tools or additional parallel information. It achieves fully
unsupervised graph-text mutual conversion for the first time. Specifically,
INFINITY treats both G2T and T2G as a bidirectional sequence generation task by
fine-tuning only one pretrained seq2seq model. A novel back-translation-based
framework is then designed to automatically generate continuous synthetic
parallel data. To obtain reasonable graph sequences with structural information
from source texts, INFINITY employs reward-based training loss by leveraging
the advantage of reward augmented maximum likelihood. As a fully unsupervised
framework, INFINITY is empirically verified to outperform state-of-the-art
baselines for G2T and T2G tasks.
- Abstract(参考訳): グラフ・ツー・テキスト(G2T)生成とテキスト・ツー・グラフ(T2G)トリプル抽出は知識グラフの構築と適用に不可欠な2つのタスクである。
既存の教師なしアプローチは、グラフテキスト並列データの使用を避けるため、2つのタスクを共同学習するのに適している。
しかし、これらは複数のモジュールで構成されており、トレーニングプロセスではエンティティ情報と関係型の両方を必要とする。
この目的のために、外部アノテーションツールや追加の並列情報を必要としない、シンプルで効果的な教師なしアプローチであるINFINITYを提案する。
完全に教師なしのグラフテキスト相互変換を初めて達成する。
具体的には、ININITYは、G2TとT2Gの両方を2方向シーケンス生成タスクとして扱う。
その後、新しいバックトランスレーションベースのフレームワークが設計され、連続合成並列データを自動的に生成する。
ソーステキストから構造情報を持つ合理的なグラフシーケンスを得るために、ININITYは報酬強化最大可能性の利点を生かして報酬ベースのトレーニング損失を採用する。
INFINITYは、完全に教師なしのフレームワークとして、G2TおよびT2Gタスクの最先端のベースラインを上回ることを実証的に検証している。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Self-supervised Graph Masking Pre-training for Graph-to-Text Generation [5.108327983929205]
大規模事前訓練言語モデル(PLM)は、グラフからテキストへ(G2T)を生成する。
本稿では、教師信号を必要としないグラフマスキング事前学習戦略と、基礎となる事前学習エンコーダ・デコーダモデルのアーキテクチャの調整を提案する。
提案手法は,WebNLG+ 2020およびEventNarrative G2T生成データセット上で,最先端の新たな結果を実現する。
論文 参考訳(メタデータ) (2022-10-19T14:44:56Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - A multi-task semi-supervised framework for Text2Graph & Graph2Text [2.2344764434954256]
グラフからテキストとテキストの生成からグラフ抽出を共同で学習する。
我々の手法は、テキスト・トゥ・グラフ・トゥ・テキストにおける教師なしの最先端結果を上回る。
結果のモデルは、非並列データを持つ任意の新しいドメインで容易にトレーニングできる。
論文 参考訳(メタデータ) (2022-02-12T11:02:17Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - CycleGT: Unsupervised Graph-to-Text and Text-to-Graph Generation via
Cycle Training [63.11444020743543]
グラフ・ツー・テキスト(G2T)とテキスト・ツー・テキスト(T2G)の変換のためのディープラーニングモデルは、訓練データ不足に悩まされる。
本稿では,非並列グラフとテキストデータからブートストラップ可能な教師なしのトレーニング手法であるCycleGTについて述べる。
論文 参考訳(メタデータ) (2020-06-08T15:59:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。