論文の概要: Measuring Alignment Bias in Neural Seq2Seq Semantic Parsers
- arxiv url: http://arxiv.org/abs/2205.08288v1
- Date: Tue, 17 May 2022 12:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 18:47:48.445081
- Title: Measuring Alignment Bias in Neural Seq2Seq Semantic Parsers
- Title(参考訳): ニューラルseq2seq意味解析器におけるアライメントバイアスの測定
- Authors: Davide Locatelli and Ariadna Quattoni
- Abstract要約: 本稿では,Seq2seqモデルが単純なアライメントと複雑なアライメントの両方を扱えるかどうかを検討する。
実験により,単調なアライメントよりも性能が有意に優れていることが示された。
- 参考スコア(独自算出の注目度): 2.8681767712152193
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Prior to deep learning the semantic parsing community has been interested in
understanding and modeling the range of possible word alignments between
natural language sentences and their corresponding meaning representations.
Sequence-to-sequence models changed the research landscape suggesting that we
no longer need to worry about alignments since they can be learned
automatically by means of an attention mechanism. More recently, researchers
have started to question such premise. In this work we investigate whether
seq2seq models can handle both simple and complex alignments. To answer this
question we augment the popular Geo semantic parsing dataset with alignment
annotations and create Geo-Aligned. We then study the performance of standard
seq2seq models on the examples that can be aligned monotonically versus
examples that require more complex alignments. Our empirical study shows that
performance is significantly better over monotonic alignments.
- Abstract(参考訳): 深層学習に先立ち、意味解析コミュニティは自然言語文とそれに対応する意味表現の間の単語アライメントの範囲を理解し、モデル化することに興味を持っている。
シーケンス・ツー・シーケンスのモデルは、アテンションメカニズムによって自動的に学習できるため、アライメントを心配する必要がなくなることを示唆する研究環境を変えました。
近年、研究者はそのような前提に疑問を呈し始めた。
本研究では,Seq2seqモデルが単純なアライメントと複雑なアライメントの両方を扱えるかどうかを検討する。
この質問に答えるために、アライメントアノテーションで一般的なジオセマンティクスパースデータセットを拡張し、ジオアライメントを作成する。
次に,単調にアライメント可能な例と,より複雑なアライメントを必要とする例について,標準seq2seqモデルの性能について検討する。
実験により,単調なアライメントよりも性能が有意に優れていることが示された。
関連論文リスト
- Compositional Generalization without Trees using Multiset Tagging and
Latent Permutations [121.37328648951993]
まず、各入力トークンに複数の出力トークンをタグ付けします。
次に、新しいパラメータ化法と置換予測法を用いて、トークンを出力シーケンスに配置する。
我々のモデルは、事前訓練されたセq2seqモデルと、現実的なセマンティック解析タスクに関する先行研究より優れている。
論文 参考訳(メタデータ) (2023-05-26T14:09:35Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Translate First Reorder Later: Leveraging Monotonicity in Semantic
Parsing [4.396860522241306]
TPolは2段階のアプローチであり、入力文を単調に翻訳し、正しい出力を得るために再注文する。
2つの一般的なセマンティックパーシングデータセットでアプローチをテストする。
論文 参考訳(メタデータ) (2022-10-10T17:50:42Z) - Compositional Generalization Requires Compositional Parsers [69.77216620997305]
直近のCOGSコーパスにおける構成原理によって導かれるシーケンス・ツー・シーケンスモデルとモデルを比較した。
構造一般化は構成一般化の重要な尺度であり、複雑な構造を認識するモデルを必要とする。
論文 参考訳(メタデータ) (2022-02-24T07:36:35Z) - TopicNet: Semantic Graph-Guided Topic Discovery [51.71374479354178]
既存の階層的なトピックモデルでは、教師なしの方法でテキストコーパスから意味論的意味のあるトピックを抽出することができる。
TopicNetを階層的なトピックモデルとして導入し、学習に影響を与えるための帰納的バイアスとして、事前構造知識を注入する。
論文 参考訳(メタデータ) (2021-10-27T09:07:14Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Logic Constrained Pointer Networks for Interpretable Textual Similarity [11.142649867439406]
本稿では, セシネルゲーティング機能を備えた新しいポインターネットワークモデルを導入し, 構成チャンクを整列させる。
両文の相違を等しく補償し、アライメントが双方向であることを保証するために、損失関数によるこのベースモデルを改善する。
このモデルは、チャンクアライメントタスクのためのベンチマークSemEvalデータセットにおいて、97.73と96.32のF1スコアを達成する。
論文 参考訳(メタデータ) (2020-07-15T13:01:44Z) - Rationalizing Text Matching: Learning Sparse Alignments via Optimal
Transport [14.86310501896212]
本研究では,この選択的合理化アプローチをテキストマッチングに拡張する。
目標は、下流の予測の正当化として、トークンや文などのテキストを共同で選択し、調整することである。
我々のアプローチでは、入力間の最小コストアライメントを見つけるために最適なトランスポート(OT)を採用している。
論文 参考訳(メタデータ) (2020-05-27T01:20:49Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。