論文の概要: DRTS Parsing with Structure-Aware Encoding and Decoding
- arxiv url: http://arxiv.org/abs/2005.06901v1
- Date: Thu, 14 May 2020 12:09:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 04:55:29.432929
- Title: DRTS Parsing with Structure-Aware Encoding and Decoding
- Title(参考訳): structure-aware encoding と decoding を用いた drts 解析
- Authors: Qiankun Fu and Yue Zhang and Jiangming Liu and Meishan Zhang
- Abstract要約: 最先端のパフォーマンスは、ニューラルシーケンス・ツー・シーケンスモデルによって達成できる。
構造情報を統合するために,エンコーダとデコーダの両フェーズにおける構造認識モデルを提案する。
- 参考スコア(独自算出の注目度): 28.711318411470497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discourse representation tree structure (DRTS) parsing is a novel semantic
parsing task which has been concerned most recently. State-of-the-art
performance can be achieved by a neural sequence-to-sequence model, treating
the tree construction as an incremental sequence generation problem. Structural
information such as input syntax and the intermediate skeleton of the partial
output has been ignored in the model, which could be potentially useful for the
DRTS parsing. In this work, we propose a structural-aware model at both the
encoder and decoder phase to integrate the structural information, where graph
attention network (GAT) is exploited for effectively modeling. Experimental
results on a benchmark dataset show that our proposed model is effective and
can obtain the best performance in the literature.
- Abstract(参考訳): discourse representation tree structure (drts) 構文解析は、最近最も懸念されている新しい意味的構文解析タスクである。
木構造をインクリメンタルシーケンス生成問題として扱うニューラルシーケンス・ツー・シーケンスモデルにより、最先端のパフォーマンスを実現することができる。
入力構文や部分出力の中間スケルトンといった構造情報はモデルでは無視されており、DRTS解析に有用である可能性がある。
本研究では,構造情報を統合するためのエンコーダとデコーダの両フェーズにおける構造認識モデルを提案し,グラフアテンションネットワーク(GAT)を効果的にモデル化する。
ベンチマークデータセットにおける実験結果は,提案モデルが有効であることを示し,文献上で最高の性能が得られることを示す。
関連論文リスト
- GraphER: A Structure-aware Text-to-Graph Model for Entity and Relation Extraction [3.579132482505273]
自然言語処理(NLP)における情報抽出は重要な課題である
グラフ構造学習(GSL)として定式化する手法を提案する。
この定式化により、エンティティとリレーショナル予測のためのより良い相互作用と構造インフォームド決定が可能になる。
論文 参考訳(メタデータ) (2024-04-18T20:09:37Z) - Syntax-Aware Complex-Valued Neural Machine Translation [14.772317918560548]
本稿では,構文情報を複合値デコーダアーキテクチャに組み込む手法を提案する。
提案モデルは,単語レベルと構文レベルのアテンションスコアを,アテンション機構を用いて,ソース側からターゲット側へ共同で学習する。
実験により,提案手法は2つのデータセット上でのBLEUスコアを大幅に改善できることを示した。
論文 参考訳(メタデータ) (2023-07-17T15:58:05Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部動作を理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがこのCFG言語を正確に学習し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - StrAE: Autoencoding for Pre-Trained Embeddings using Explicit Structure [5.2869308707704255]
StrAEは構造化オートエンコーダフレームワークであり、明示的な構造に厳格に固執することで、マルチレベル表現の効果的な学習を可能にする。
本研究の結果は,入力として提供される構造に直接的な関連性があることを示し,既存のツリーモデルではそうではないことを示す。
次に、StrAEを拡張して、単純なローカライズ・マージアルゴリズムを用いてモデルが独自の構成を定義する。
論文 参考訳(メタデータ) (2023-05-09T16:20:48Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Code Representation Learning with Pr\"ufer Sequences [2.2463154358632464]
コンピュータプログラムのソースコードの効果的なエンコーディングは、シーケンシャル・ツー・シーケンス・ディープ・ニューラルネットワークモデルの成功に不可欠である。
本稿では,コンピュータプログラムの抽象構文木 (AST) の Pr"ufer sequence を用いて,逐次表現スキームを設計することを提案する。
我々の表現は、学習例における語彙トークンによって伝達される信号を、自動的に選択的に活用できるディープラーニングモデルの開発を可能にする。
論文 参考訳(メタデータ) (2021-11-14T07:27:38Z) - Operation Embeddings for Neural Architecture Search [15.033712726016255]
最適化プロセスにおいて、固定演算子エンコーディングを学習可能な表現に置き換えることを提案する。
本手法は,同様の操作とグラフパターンを共有するトップパフォーマンスアーキテクチャを生成する。
論文 参考訳(メタデータ) (2021-05-11T09:17:10Z) - AutoSTR: Efficient Backbone Search for Scene Text Recognition [80.7290173000068]
テキストインスタンスの多様性とシーンの複雑さのため、シーンテキスト認識(STR)は非常に難しい。
テキスト認識性能を向上させるために,データ依存のバックボーンを検索するための自動STR(AutoSTR)を提案する。
実験によると、データ依存のバックボーンを検索することで、AutoSTRは標準ベンチマークにおける最先端のアプローチより優れている。
論文 参考訳(メタデータ) (2020-03-14T06:51:04Z) - Tree-structured Attention with Hierarchical Accumulation [103.47584968330325]
階層的累積」は解析木構造を一定時間複雑度で自己注意に符号化する。
提案手法は,4つの IWSLT 翻訳タスクと WMT'14 翻訳タスクにおいて,SOTA 法より優れている。
論文 参考訳(メタデータ) (2020-02-19T08:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。