論文の概要: Knowledge-based Review Generation by Coherence Enhanced Text Planning
- arxiv url: http://arxiv.org/abs/2105.03815v1
- Date: Sun, 9 May 2021 02:12:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 15:03:24.289234
- Title: Knowledge-based Review Generation by Coherence Enhanced Text Planning
- Title(参考訳): コヒーレンス強化テキストプランニングによる知識ベースレビュー生成
- Authors: Junyi Li, Wayne Xin Zhao, Zhicheng Wei, Nicholas Jing Yuan and Ji-Rong
Wen
- Abstract要約: 我々は,知識グラフ(KGs)に基づく新しいコヒーレンス拡張テキストプランニングモデル(CETP)を提案し,レビュー生成のためのグローバルおよびローカルのコヒーレンスを改善する。
グローバルコヒーレンスのために,サブグラフとノードレベルの双方に注意を払って,サブグラフ間の相関性を高める階層的自己意図アーキテクチャを設計する。
3つのデータセットの実験は、生成されたテキストのコンテンツコヒーレンスを改善するためのモデルの有効性を確認します。
- 参考スコア(独自算出の注目度): 45.473253542837995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As a natural language generation task, it is challenging to generate
informative and coherent review text. In order to enhance the informativeness
of the generated text, existing solutions typically learn to copy entities or
triples from knowledge graphs (KGs). However, they lack overall consideration
to select and arrange the incorporated knowledge, which tends to cause text
incoherence.
To address the above issue, we focus on improving entity-centric coherence of
the generated reviews by leveraging the semantic structure of KGs. In this
paper, we propose a novel Coherence Enhanced Text Planning model (CETP) based
on knowledge graphs (KGs) to improve both global and local coherence for review
generation. The proposed model learns a two-level text plan for generating a
document: (1) the document plan is modeled as a sequence of sentence plans in
order, and (2) the sentence plan is modeled as an entity-based subgraph from
KG. Local coherence can be naturally enforced by KG subgraphs through
intra-sentence correlations between entities. For global coherence, we design a
hierarchical self-attentive architecture with both subgraph- and node-level
attention to enhance the correlations between subgraphs. To our knowledge, we
are the first to utilize a KG-based text planning model to enhance text
coherence for review generation. Extensive experiments on three datasets
confirm the effectiveness of our model on improving the content coherence of
generated texts.
- Abstract(参考訳): 自然言語生成タスクとして、情報的かつ一貫性のあるレビューテキストを生成することは困難である。
生成されたテキストの情報性を高めるために、既存のソリューションは通常、知識グラフ(KG)からエンティティやトリプルをコピーすることを学ぶ。
しかし,テキストの一貫性を損なう傾向にある包括的知識の選択と整理は,全体として考慮されていない。
上記の課題に対処するため、我々は、KGのセマンティック構造を活用して、生成したレビューのエンティティ中心のコヒーレンスを改善することに重点を置いている。
本稿では,知識グラフ(KG)に基づく新しいコヒーレンス拡張テキスト計画モデル(CETP)を提案し,レビュー生成におけるグローバルおよびローカルのコヒーレンスを改善する。
提案モデルは文書を生成するための2段階のテキストプランを学習する:(1)文書プランは文計画の順序としてモデル化され、(2)文プランはkgからエンティティベースのサブグラフとしてモデル化される。
局所コヒーレンスをKGサブグラフによって自然に強制することができる。
グローバルコヒーレンスのために,サブグラフとノードレベルの双方に注意を払って,サブグラフ間の相関性を高める階層的自己意図アーキテクチャを設計する。
我々の知る限り、我々はレビュー生成のためのテキストコヒーレンスを高めるためにKGベースのテキストプランニングモデルを利用した最初の人です。
3つのデータセットに関する広範囲な実験により,生成されたテキストのコンテントコヒーレンス向上におけるモデルの有効性を確認した。
関連論文リスト
- A Combined Encoder and Transformer Approach for Coherent and High-Quality Text Generation [5.930799903736776]
本研究は,BERTのセマンティック解釈強度とGPT-4の生成能力を組み合わせた新しいテキスト生成モデルを提案する。
このモデルはセマンティックディープを強化し、スムーズな人間のようなテキストフローを維持し、以前のモデルに見られる制限を克服する。
論文 参考訳(メタデータ) (2024-11-19T01:41:56Z) - Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Augmenting Textual Generation via Topology Aware Retrieval [30.933176170660683]
トポロジを意識した検索型検索生成フレームワークを開発した。
このフレームワークは、トポロジ的関係に基づいてテキストを選択する検索モジュールを含む。
我々は,確立したテキスト配信ネットワークをキュレートし,本フレームワークの有効性を検証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2024-05-27T19:02:18Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Generating Faithful Text From a Knowledge Graph with Noisy Reference
Text [26.6775578332187]
与えられたグラフから忠実な自然言語テキストを生成することができるKG-to-text生成モデルを開発した。
まず、コントラスト学習を利用して、テキスト内の忠実な情報と幻覚的な情報を区別するモデルの能力を強化する。
第2に、制御可能なテキスト生成技術を用いて、デコーダに生成したテキストの幻覚レベルを制御する権限を与える。
論文 参考訳(メタデータ) (2023-08-12T07:12:45Z) - Attend, Memorize and Generate: Towards Faithful Table-to-Text Generation
in Few Shots [58.404516361586325]
Few-shot table-to-text generation は、限られたデータを用いてテーブル内容を伝えるために、流動的で忠実な文を構成するタスクである。
本稿では,人間のテキスト生成プロセスに触発された新しい手法,覚醒と生成(AMG)を提案する。
論文 参考訳(メタデータ) (2022-03-01T20:37:20Z) - Few-shot Knowledge Graph-to-Text Generation with Pretrained Language
Models [42.38563175680914]
本稿では,知識グラフ(KG)の事実を記述した自然言語テキストの自動生成方法について検討する。
数ショットの設定を考えると、言語理解と生成において事前学習された言語モデル(PLM)の優れた能力を利用する。
論文 参考訳(メタデータ) (2021-06-03T06:48:00Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。