論文の概要: Translate First Reorder Later: Leveraging Monotonicity in Semantic
Parsing
- arxiv url: http://arxiv.org/abs/2210.04878v1
- Date: Mon, 10 Oct 2022 17:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 14:12:28.130972
- Title: Translate First Reorder Later: Leveraging Monotonicity in Semantic
Parsing
- Title(参考訳): translate firstorder later: using monotonicity in semantic parsing (英語)
- Authors: Francesco Cazzaro, Davide Locatelli, Ariadna Quattoni, Xavier Carreras
- Abstract要約: TPolは2段階のアプローチであり、入力文を単調に翻訳し、正しい出力を得るために再注文する。
2つの一般的なセマンティックパーシングデータセットでアプローチをテストする。
- 参考スコア(独自算出の注目度): 4.396860522241306
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Prior work in semantic parsing has shown that conventional seq2seq models
fail at compositional generalization tasks. This limitation led to a resurgence
of methods that model alignments between sentences and their corresponding
meaning representations, either implicitly through latent variables or
explicitly by taking advantage of alignment annotations. We take the second
direction and propose TPol, a two-step approach that first translates input
sentences monotonically and then reorders them to obtain the correct output.
This is achieved with a modular framework comprising a Translator and a
Reorderer component. We test our approach on two popular semantic parsing
datasets. Our experiments show that by means of the monotonic translations,
TPol can learn reliable lexico-logical patterns from aligned data,
significantly improving compositional generalization both over conventional
seq2seq models, as well as over a recently proposed approach that exploits gold
alignments.
- Abstract(参考訳): 意味解析における先行研究は、従来のseq2seqモデルは合成一般化タスクでは失敗することを示した。
この制限により、文とその対応する意味表現間のアライメントをモデル化するメソッドが復活した。
まず、入力文を単調に翻訳し、それから正しい出力を得るために再順序付けを行う2段階のアプローチであるtpolを提案する。
これはTranslatorとReordererコンポーネントからなるモジュラーフレームワークで実現されている。
2つの一般的なセマンティックパーシングデータセットでアプローチをテストする。
実験の結果,tpolは一調翻訳によって,アライメントデータから信頼性の高い語彙論理パターンを学習でき,従来のseq2seqモデルと,最近提案されたゴールドアライメントを利用するアプローチの両方において,合成一般化を大幅に改善できることがわかった。
関連論文リスト
- Improving Generalization in Language Model-Based Text-to-SQL Semantic
Parsing: Two Simple Semantic Boundary-Based Techniques [14.634536051274468]
LMトークン化器が生成するトークンの意味的境界を保存するためのトークン前処理手法を提案する。
シーケンスレベルでは、入力と出力の間に整列したコンポーネントの境界を示すために特別なトークンを使うことを提案する。
2つのテキストからセマンティック・パーシング・データセットによる実験結果から,トークン前処理は単純ではあるが,両タイプの一般化におけるLM性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-05-27T06:09:03Z) - Compositional Generalization without Trees using Multiset Tagging and
Latent Permutations [121.37328648951993]
まず、各入力トークンに複数の出力トークンをタグ付けします。
次に、新しいパラメータ化法と置換予測法を用いて、トークンを出力シーケンスに配置する。
我々のモデルは、事前訓練されたセq2seqモデルと、現実的なセマンティック解析タスクに関する先行研究より優れている。
論文 参考訳(メタデータ) (2023-05-26T14:09:35Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - Measuring Alignment Bias in Neural Seq2Seq Semantic Parsers [2.8681767712152193]
本稿では,Seq2seqモデルが単純なアライメントと複雑なアライメントの両方を扱えるかどうかを検討する。
実験により,単調なアライメントよりも性能が有意に優れていることが示された。
論文 参考訳(メタデータ) (2022-05-17T12:35:52Z) - Grounded Graph Decoding Improves Compositional Generalization in
Question Answering [68.72605660152101]
質問応答モデルは、長いシーケンスやより複雑なテスト構造のようなトレーニングパターンの新しい構成に一般化するのに苦労する。
構造化された予測をアテンション機構でグラウンド化することで,言語表現の合成一般化を改善する手法であるグラウンドドグラフデコーディングを提案する。
本モデルは,質問応答における合成一般化の挑戦的ベンチマークである構成自由ベース質問(CFQ)データセットにおいて,最先端のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2021-11-05T17:50:14Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Compositional Generalization via Semantic Tagging [81.24269148865555]
本稿では,シーケンス・ツー・シーケンスモデルの表現性と一般性を保存するための新しいデコードフレームワークを提案する。
提案手法は, モデルアーキテクチャ, ドメイン, セマンティックフォーマリズム間の構成一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2020-10-22T15:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。