論文の概要: Enriched In-Order Linearization for Faster Sequence-to-Sequence
Constituent Parsing
- arxiv url: http://arxiv.org/abs/2005.13334v1
- Date: Wed, 27 May 2020 13:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:57:40.484462
- Title: Enriched In-Order Linearization for Faster Sequence-to-Sequence
Constituent Parsing
- Title(参考訳): より高速なシーケンス対シーケンス構成解析のための高次線形化
- Authors: Daniel Fern\'andez-Gonz\'alez and Carlos G\'omez-Rodr\'iguez
- Abstract要約: シーケンス対シーケンス構成解析は、木をシーケンスとして表現するために線形化を必要とする。
ブラケットやシフト・リデュース・アクションをベースとしたトップダウンツリーの線形化は,これまでで最高の精度を実現している。
そこで本研究では,次数線形化を用いることで,これらの結果を改善することができることを示す。
- 参考スコア(独自算出の注目度): 0.34376560669160383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sequence-to-sequence constituent parsing requires a linearization to
represent trees as sequences. Top-down tree linearizations, which can be based
on brackets or shift-reduce actions, have achieved the best accuracy to date.
In this paper, we show that these results can be improved by using an in-order
linearization instead. Based on this observation, we implement an enriched
in-order shift-reduce linearization inspired by Vinyals et al. (2015)'s
approach, achieving the best accuracy to date on the English PTB dataset among
fully-supervised single-model sequence-to-sequence constituent parsers.
Finally, we apply deterministic attention mechanisms to match the speed of
state-of-the-art transition-based parsers, thus showing that
sequence-to-sequence models can match them, not only in accuracy, but also in
speed.
- Abstract(参考訳): シーケンス対シーケンス構成解析は、木をシーケンスとして表現するために線形化を必要とする。
ブラケットやシフト・リデュース・アクションをベースとしたトップダウンツリーの線形化は、これまでで最も正確である。
本稿では,これらの結果は,代わりに順番線形化を用いることで改善できることを示す。
この観測に基づいて、Vinyals et al. (2015) のアプローチにインスパイアされた高階シフト-リデュース線形化を実装し、完全な教師付き単一モデルシーケンス-シーケンス構成パーザの中で、英語 PTB データセット上で現在までの最高の精度を実現する。
最後に,最先端のトランジションベースパーサの速度に適合する決定論的アテンション機構を適用し,シーケンス・ツー・シーケンス・モデルが精度だけでなく,速度にも一致することを示す。
関連論文リスト
- Ego-Network Transformer for Subsequence Classification in Time Series
Data [36.591480151951515]
実世界の時系列データは、しばしば背景のサブシーケンスと連動する前景のサブシーケンスを含む。
本稿では,各サブシーケンスをエゴネットワークとして表現する新しいサブシーケンス分類法を提案する。
提案手法は158個のデータセットのうち104個のベースラインを上回ります。
論文 参考訳(メタデータ) (2023-11-05T04:21:42Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Extrapolative Controlled Sequence Generation via Iterative Refinement [22.42501277690634]
本研究では,外挿制御生成の問題,すなわち,トレーニングで見られる範囲を超えて属性値を持つシーケンスを生成する問題について検討する。
本研究では,反復的制御外挿法 (ICE) を提案する。
1つの自然言語タスク(感覚分析)と2つのタンパク質工学タスク(ACE2安定性とAAV適合性)の結果、ICEは単純さにもかかわらず最先端のアプローチをかなり上回っている。
論文 参考訳(メタデータ) (2023-03-08T13:21:27Z) - DBA: Efficient Transformer with Dynamic Bilinear Low-Rank Attention [53.02648818164273]
動的双線形低ランク注意(DBA)という,効率的かつ効果的な注意機構を提案する。
DBAは入力感度の動的射影行列によってシーケンス長を圧縮し、線形時間と空間の複雑さを実現する。
様々なシーケンス長条件のタスクに対する実験は、DBAが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2022-11-24T03:06:36Z) - Learning Temporal Point Processes for Efficient Retrieval of Continuous
Time Event Sequences [24.963828650935913]
NEUROSEQRETは,あるクエリシーケンスに対して,関連する連続時間イベントシーケンスの検索とランク付けを学習する。
精度と効率のトレードオフを提供する関係モデルの2つの変種を開発する。
いくつかのデータセットを用いて行った実験では、NEUROSEQRETの精度がいくつかのベースラインを超えていることが示されている。
論文 参考訳(メタデータ) (2022-02-17T11:16:31Z) - Reinforcement Learning Based Query Vertex Ordering Model for Subgraph
Matching [58.39970828272366]
グラフマッチングアルゴリズムは、クエリグラフの埋め込みをデータグラフGに列挙する。
マッチング順序は、これらのバックトラックに基づくサブグラフマッチングアルゴリズムの時間効率において重要な役割を果たす。
本稿では,Reinforcement Learning (RL) と Graph Neural Networks (GNN) 技術を適用して,グラフマッチングアルゴリズムの高品質なマッチング順序を生成する。
論文 参考訳(メタデータ) (2022-01-25T00:10:03Z) - Improving Graph-based Sentence Ordering with Iteratively Predicted
Pairwise Orderings [38.91604447717656]
本稿では,2つの分類器を導入し,グラフに基づく文順序付けのためのペア順序付けを効果的に活用する新しい文順序付けフレームワークを提案する。
本モデルは,BERTとFHDecoderを搭載した場合の最先端性能を実現する。
論文 参考訳(メタデータ) (2021-10-13T02:18:16Z) - Don't Take It Literally: An Edit-Invariant Sequence Loss for Text
Generation [109.46348908829697]
生成したn-gramのすべてのn-gramとの一致損失を計算した新しい編集不変シーケンス損失(EISL)を提案する。
ノイズの多いターゲットシーケンスを持つ機械翻訳,教師なしテキストスタイル転送,非自己回帰型機械翻訳の3つのタスクについて実験を行った。
論文 参考訳(メタデータ) (2021-06-29T03:59:21Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Semantic Label Smoothing for Sequence to Sequence Problems [54.758974840974425]
そこで本研究では,対象シーケンスとn-gramの重なり合いが十分である,エンハンウェル上のスムーズな関連配列を生成する手法を提案する。
提案手法は, 異なるデータセット上での最先端技術よりも一貫した, 顕著な改善を示す。
論文 参考訳(メタデータ) (2020-10-15T00:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。