論文の概要: Neural Data-to-Text Generation via Jointly Learning the Segmentation and
Correspondence
- arxiv url: http://arxiv.org/abs/2005.01096v1
- Date: Sun, 3 May 2020 14:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 06:15:50.310955
- Title: Neural Data-to-Text Generation via Jointly Learning the Segmentation and
Correspondence
- Title(参考訳): セグメンテーションと対応性の共同学習によるニューラルデータ・テキスト生成
- Authors: Xiaoyu Shen, Ernie Chang, Hui Su, Jie Zhou, Dietrich Klakow
- Abstract要約: 対象のテキストを断片単位に明示的に分割し,それらのデータ対応と整合させることを提案する。
結果として生じるアーキテクチャは、ニューラルアテンションモデルと同じ表現力を維持している。
E2EとWebNLGのベンチマークでは、提案モデルがニューラルアテンションよりも一貫して優れていることを示す。
- 参考スコア(独自算出の注目度): 48.765579605145454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The neural attention model has achieved great success in data-to-text
generation tasks. Though usually excelling at producing fluent text, it suffers
from the problem of information missing, repetition and "hallucination". Due to
the black-box nature of the neural attention architecture, avoiding these
problems in a systematic way is non-trivial. To address this concern, we
propose to explicitly segment target text into fragment units and align them
with their data correspondences. The segmentation and correspondence are
jointly learned as latent variables without any human annotations. We further
impose a soft statistical constraint to regularize the segmental granularity.
The resulting architecture maintains the same expressive power as neural
attention models, while being able to generate fully interpretable outputs with
several times less computational cost. On both E2E and WebNLG benchmarks, we
show the proposed model consistently outperforms its neural attention
counterparts.
- Abstract(参考訳): ニューラルアテンションモデルは、データ-テキスト生成タスクで大きな成功を収めた。
通常、流動的なテキストを生成するのに長けているが、情報の欠如、繰り返し、そして「幻覚」という問題に悩まされている。
ニューラル・アテンション・アーキテクチャのブラックボックスの性質から、これらの問題を体系的に回避することは自明ではない。
そこで本研究では,対象テキストをフラグメント単位に明示的に分割し,それらのデータ対応に合わせることを提案する。
セグメンテーションと対応は人間のアノテーションなしで潜在変数として共同で学習される。
さらに、セグメントの粒度を規則化するためのソフトな統計的制約を課す。
結果として得られるアーキテクチャは、ニューラルアテンションモデルと同じ表現力を維持し、完全に解釈可能な出力を数倍の計算コストで生成することができる。
E2EとWebNLGのベンチマークでは、提案モデルがニューラルアテンションよりも一貫して優れていることを示す。
関連論文リスト
- Text2Data: Low-Resource Data Generation with Textual Control [104.38011760992637]
自然言語は、人間が機械とシームレスに対話するための共通かつ直接的な制御信号として機能する。
ラベルのないデータを用いて教師なし拡散モデルを用いて基礎となるデータ分布を理解する新しいアプローチであるText2Dataを提案する。
制御性を確保し、破滅的な忘れを効果的に防止する、新しい制約最適化ベースの学習目標を通じて制御可能な微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - Extractive Text Summarization Using Generalized Additive Models with
Interactions for Sentence Selection [0.0]
本研究は、言語的特徴と二項分類に基づく抽出的要約問題への2つの近代的一般化加法モデル、すなわち説明可能なブースティングマシンとGAMI-Netの適用について研究する。
論文 参考訳(メタデータ) (2022-12-21T00:56:50Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Unsupervised Mismatch Localization in Cross-Modal Sequential Data [5.932046800902776]
我々は、コンテンツミスマッチしたクロスモーダルデータ間の関係を推測できる教師なし学習アルゴリズムを開発した。
本稿では,音声生成過程を階層的に構造化された潜在変数に分解する,ミスマッチ局所化変分自動符号化(ML-VAE)という階層型ベイズディープラーニングモデルを提案する。
実験の結果,ML-VAEは人間のアノテーションを必要とせず,テキストと音声のミスマッチの特定に成功した。
論文 参考訳(メタデータ) (2022-05-05T14:23:27Z) - Entity-Conditioned Question Generation for Robust Attention Distribution
in Neural Information Retrieval [51.53892300802014]
教師付きニューラル情報検索モデルでは,通過トークンよりも疎注意パターンを学習することが困難であることを示す。
目的とする新しい合成データ生成手法を用いて、与えられた通路内の全てのエンティティに対して、より均一で堅牢な参加をニューラルIRに教える。
論文 参考訳(メタデータ) (2022-04-24T22:36:48Z) - TopNet: Learning from Neural Topic Model to Generate Long Stories [43.5564336855688]
Long Story Generation (LSG) は自然言語処理における目標の1つである。
短い入力を補完する高品質なスケルトン語を得るために,emphTopNetを提案する。
提案手法は骨格語選択に極めて有効であり, 自動評価と人的評価の両方において最先端のモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-12-14T09:47:53Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Understanding Neural Abstractive Summarization Models via Uncertainty [54.37665950633147]
seq2seq抽象要約モデルは、自由形式の方法でテキストを生成する。
モデルのトークンレベルの予測のエントロピー、すなわち不確実性について検討する。
要約とテキスト生成モデルをより広範囲に解析する上で,不確実性は有用であることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:57:27Z) - Short Text Classification via Knowledge powered Attention with
Similarity Matrix based CNN [6.6723692875904375]
本稿では,類似度行列に基づく畳み込みニューラルネットワーク(KASM)モデルを用いた知識駆動型アテンションを提案する。
我々は知識グラフ(KG)を用いて短文の意味表現を強化する。
知識の重要性を測定するために,重要な情報を選択するための注意機構を導入する。
論文 参考訳(メタデータ) (2020-02-09T12:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。