論文の概要: Online Back-Parsing for AMR-to-Text Generation
- arxiv url: http://arxiv.org/abs/2010.04520v1
- Date: Fri, 9 Oct 2020 12:08:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:33:09.590914
- Title: Online Back-Parsing for AMR-to-Text Generation
- Title(参考訳): AMR-to-Text生成のためのオンラインバックパッシング
- Authors: Xuefeng Bai, Linfeng Song and Yue Zhang
- Abstract要約: AMR-to-text生成は、入力されたAMRグラフと同じ意味のテキストを復元することを目的としている。
テキスト生成中にターゲット文に投影されたAMRグラフを逆予測するデコーダを提案する。
- 参考スコア(独自算出の注目度): 29.12944601513491
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AMR-to-text generation aims to recover a text containing the same meaning as
an input AMR graph. Current research develops increasingly powerful graph
encoders to better represent AMR graphs, with decoders based on standard
language modeling being used to generate outputs. We propose a decoder that
back predicts projected AMR graphs on the target sentence during text
generation. As the result, our outputs can better preserve the input meaning
than standard decoders. Experiments on two AMR benchmarks show the superiority
of our model over the previous state-of-the-art system based on graph
Transformer.
- Abstract(参考訳): AMR-to-text生成は、入力されたAMRグラフと同じ意味のテキストを復元することを目的としている。
現在の研究では、AMRグラフをより良く表現するための強力なグラフエンコーダが開発されており、標準言語モデリングに基づくデコーダが出力を生成するために使用されている。
テキスト生成中にターゲット文に投影されたAMRグラフを予測するデコーダを提案する。
その結果、出力は標準デコーダよりも入力の意味を保存できることがわかった。
2つのamrベンチマーク実験では,グラフトランスフォーマタを用いた前回の最先端システムよりも優れた性能を示す。
関連論文リスト
- $ε$-VAE: Denoising as Visual Decoding [61.29255979767292]
生成モデリングにおいて、トークン化は複雑なデータをコンパクトで構造化された表現に単純化し、より効率的で学習可能な空間を作り出す。
現在の視覚的トークン化手法は従来のオートエンコーダフレームワークに依存しており、エンコーダはデータを潜在表現に圧縮し、デコーダは元の入力を再構築する。
具体的には,デコーダを拡散処理に置き換え,ノイズを反復的に除去して元のイメージを復元し,エンコーダが提供する潜伏者によって誘導される。
再建(rFID)と生成品質(ジェネレーション品質)の両面からアプローチを評価する。
論文 参考訳(メタデータ) (2024-10-05T08:27:53Z) - mGTE: Generalized Long-Context Text Representation and Reranking Models for Multilingual Text Retrieval [67.50604814528553]
まず、RoPEとアンパディングで強化されたテキストエンコーダを導入し、ネイティブの8192-tokenコンテキストで事前トレーニングを行った。
そして、コントラスト学習によりハイブリッドTRMとクロスエンコーダ・リランカを構築する。
論文 参考訳(メタデータ) (2024-07-29T03:12:28Z) - AMR Parsing with Causal Hierarchical Attention and Pointers [54.382865897298046]
因果的階層的注意とポインタ機構を備えた新しいAMR解析と新しいモデルCHAPを導入する。
実験の結果, 5つのベンチマークのうち4つのベースラインモデルでは, 追加データがない場合に, ベースラインモデルよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2023-10-18T13:44:26Z) - Incorporating Graph Information in Transformer-based AMR Parsing [34.461828101932184]
LeakDistillはTransformerアーキテクチャの変更を探求するモデルとメソッドである。
トレーニング時に,単語とノードのアライメントを用いてグラフ構造情報をエンコーダに埋め込むことで,最先端のAMR解析が得られることを示す。
論文 参考訳(メタデータ) (2023-06-23T12:12:08Z) - Neural Machine Translation with Dynamic Graph Convolutional Decoder [32.462919670070654]
本稿では,グラフとシーケンス)構造入力から(グラフとシーケンス)出力への変換アーキテクチャを提案する。
我々は5つの広く知られている翻訳ベンチマークで広範な実験を行い、提案手法がベースラインや他の構文認識の変種よりも一貫した改善を実現することを検証した。
論文 参考訳(メタデータ) (2023-05-28T11:58:07Z) - Diffsound: Discrete Diffusion Model for Text-to-sound Generation [78.4128796899781]
本稿では,テキストエンコーダ,ベクトル量子化変分自動符号化(VQ-VAE),デコーダ,ボコーダからなる新しいテキスト音声生成フレームワークを提案する。
フレームワークは、まず、デコーダを使用して、テキストエンコーダから抽出したテキスト特徴をVQ-VAEの助けを借りてメルスペクトルに転送し、次いで、ボコーダを使用して生成されたメルスペクトルを波形に変換する。
論文 参考訳(メタデータ) (2022-07-20T15:41:47Z) - Graph Pre-training for AMR Parsing and Generation [14.228434699363495]
AMRグラフ上でのPLMの構造認識を改善するために,グラフ自己教師訓練について検討する。
本稿では,グラフ間事前学習のための2つのグラフ自動符号化戦略と,事前学習中にテキストとグラフ情報を統合するための4つのタスクを紹介する。
論文 参考訳(メタデータ) (2022-03-15T12:47:00Z) - Levi Graph AMR Parser using Heterogeneous Attention [17.74208462902158]
本稿では,異種データ(トークン,概念,ラベル)を変換器への入力として組み合わせ,AMR解析への新たなアプローチを提案する。
我々のモデルは、以前の最先端グラフよりもかなり少ないパラメータを使用するが、AMR 2.0と3.0では類似またはより良い精度を示す。
論文 参考訳(メタデータ) (2021-07-09T00:06:17Z) - Lightweight, Dynamic Graph Convolutional Networks for AMR-to-Text
Generation [56.73834525802723]
軽量な動的グラフ畳み込みネットワーク (LDGCN) を提案する。
LDGCNは入力グラフから高次情報を合成することにより、よりリッチな非局所的な相互作用をキャプチャする。
我々は,グループグラフの畳み込みと重み付き畳み込みに基づく2つの新しいパラメータ保存戦略を開発し,メモリ使用量とモデル複雑性を低減する。
論文 参考訳(メタデータ) (2020-10-09T06:03:46Z) - Streaming automatic speech recognition with the transformer model [59.58318952000571]
本稿では,ストリーミングASRのためのトランスフォーマーに基づくエンドツーエンドASRシステムを提案する。
本研究では,エンコーダに時間制限付き自己アテンションを適用し,エンコーダ・デコーダのアテンション機構に注意を喚起する。
提案したストリーミングトランスアーキテクチャは,LibriSpeechの「クリーン」および「他の」テストデータに対して,2.8%と7.2%のWERを実現する。
論文 参考訳(メタデータ) (2020-01-08T18:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。