論文の概要: Don't Parse, Insert: Multilingual Semantic Parsing with Insertion Based
Decoding
- arxiv url: http://arxiv.org/abs/2010.03714v1
- Date: Thu, 8 Oct 2020 01:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 10:55:43.742379
- Title: Don't Parse, Insert: Multilingual Semantic Parsing with Insertion Based
Decoding
- Title(参考訳): Don't Parse, Insert: Insertionベースのデコードによる多言語意味解析
- Authors: Qile Zhu, Haidar Khan, Saleh Soltan, Stephen Rawls, Wael Hamza
- Abstract要約: 成功した構文は、入力発話をシステムで容易に理解できる動作に変換する。
複雑な解析タスクに対して、最先端の手法は、解析を直接生成するためのシーケンスモデルへの自己回帰シーケンスに基づいている。
- 参考スコア(独自算出の注目度): 10.002379593718471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic parsing is one of the key components of natural language
understanding systems. A successful parse transforms an input utterance to an
action that is easily understood by the system. Many algorithms have been
proposed to solve this problem, from conventional rulebased or statistical
slot-filling systems to shiftreduce based neural parsers. For complex parsing
tasks, the state-of-the-art method is based on autoregressive sequence to
sequence models to generate the parse directly. This model is slow at inference
time, generating parses in O(n) decoding steps (n is the length of the target
sequence). In addition, we demonstrate that this method performs poorly in
zero-shot cross-lingual transfer learning settings. In this paper, we propose a
non-autoregressive parser which is based on the insertion transformer to
overcome these two issues. Our approach 1) speeds up decoding by 3x while
outperforming the autoregressive model and 2) significantly improves
cross-lingual transfer in the low-resource setting by 37% compared to
autoregressive baseline. We test our approach on three well-known monolingual
datasets: ATIS, SNIPS and TOP. For cross lingual semantic parsing, we use the
MultiATIS++ and the multilingual TOP datasets.
- Abstract(参考訳): 意味解析は自然言語理解システムの主要な構成要素の1つである。
成功した構文は、入力発話をシステムで容易に理解できる動作に変換する。
この問題を解決するために、従来のルールベースや統計スロットフィルシステムからshiftreduceベースのニューラルネットワークパーサまで、多くのアルゴリズムが提案されている。
複雑な解析タスクでは、state-of-the-artメソッドは、構文解析を直接生成するシーケンスモデルへの自己回帰シーケンスに基づいている。
このモデルは推論時に遅く、o(n) 復号ステップでパースを生成する(n は対象シーケンスの長さである)。
さらに,この手法は,ゼロショットの言語間移動学習環境では不十分であることを示す。
本稿では,この2つの問題を克服するために,挿入変圧器に基づく非自己回帰解析器を提案する。
私たちのアプローチ
1)自己回帰モデルを上回るデコーディングを3倍高速化する。
2) 自己回帰ベースラインに比べて低リソース環境での言語間移動が37%向上した。
我々は、ATIS、SNIPS、TOPの3つのよく知られたモノリンガルデータセットに対するアプローチを検証した。
言語間セマンティック解析には、MultiATIS++とマルチ言語TOPデータセットを使用する。
関連論文リスト
- TransMI: A Framework to Create Strong Baselines from Multilingual Pretrained Language Models for Transliterated Data [50.40191599304911]
そこで我々は,Transliterate Transliteration-Merge (TransMI)を提案する。
結果は、モデルやタスクによって異なるが、3%から34%の改善が一貫したことを示している。
論文 参考訳(メタデータ) (2024-05-16T09:08:09Z) - MRL Parsing Without Tears: The Case of Hebrew [14.104766026682384]
形態的にリッチな言語(MRL)では、トークンごとに複数の語彙単位を識別する必要があるが、既存のシステムはレイテンシとセットアップの複雑さに悩まされている。
決定は、専門家の分類器によって、各ユニットが1つの特定のタスクに特化して行われる。
この信じられないほど高速なアプローチは、HebrewのPOSタグ付けと依存性解析に新しいSOTAを設定し、他のHebrewタスクではほぼSOTAのパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-03-11T17:54:33Z) - Optimal Transport Posterior Alignment for Cross-lingual Semantic Parsing [68.47787275021567]
言語間のセマンティックパーシングは、高いソース言語(例えば英語)から少ないトレーニングデータを持つ低リソース言語へのパーシング能力を伝達する。
そこで本稿では,最適輸送を用いた係り受け変数間の言語間相違を明示的に最小化することで,言語間セマンティック解析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T04:52:31Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - DetIE: Multilingual Open Information Extraction Inspired by Object
Detection [10.269858179091111]
コンピュータビジョンからオブジェクト検出アルゴリズムにインスパイアされたOpenIEのための新しいシングルパス方式を提案する。
マルチリンガルなRe-OIE2016では、パフォーマンス改善が15%向上し、ポルトガル語とスペイン語の両方で75%のF1に達した。
論文 参考訳(メタデータ) (2022-06-24T23:47:00Z) - Training Naturalized Semantic Parsers with Very Little Data [10.709587018625275]
State-of-the-art(SOTA)セマンティクスは、大量のテキストに基づいて事前訓練された大規模な言語モデルに基づくセク2セックアーキテクチャである。
最近の研究は意味解析の改革を探求しており、出力シーケンスはそれ自体が自然言語文である。
本手法は,Overnightデータセット上で新たなSOTA数ショット性能を実現する。
論文 参考訳(メタデータ) (2022-04-29T17:14:54Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Translate & Fill: Improving Zero-Shot Multilingual Semantic Parsing with
Synthetic Data [2.225882303328135]
多言語セマンティックパーシングタスクのための銀のトレーニングデータを生成するための新しいTranslate-and-Fill(TaF)手法を提案する。
3つの多言語意味解析データセットの実験結果は、TaFによるデータ拡張が類似システムと競合する精度に達することを示している。
論文 参考訳(メタデータ) (2021-09-09T14:51:11Z) - Zero-Shot Cross-lingual Semantic Parsing [56.95036511882921]
7つのテスト言語に対する並列データを持たないゼロショット問題として,言語間セマンティックパーシングについて検討した。
英文論理形式ペアデータのみを用いて解析知識を付加言語に転送するマルチタスクエンコーダデコーダモデルを提案する。
このシステムは、ゼロショット解析を潜時空間アライメント問題としてフレーム化し、事前訓練されたモデルを改善し、最小のクロスリンガル転送ペナルティで論理形式を生成することができる。
論文 参考訳(メタデータ) (2021-04-15T16:08:43Z) - FILTER: An Enhanced Fusion Method for Cross-lingual Language
Understanding [85.29270319872597]
我々は,XLMファインタニングの入力として言語間データを利用する拡張融合法を提案する。
推論中は、ターゲット言語で入力されたテキストとソース言語の翻訳に基づいて予測を行う。
この問題に対処するため,対象言語における翻訳テキストのための自動生成ソフト擬似ラベルに基づくモデル学習のためのKL分割自己学習損失を提案する。
論文 参考訳(メタデータ) (2020-09-10T22:42:15Z) - Don't Parse, Generate! A Sequence to Sequence Architecture for
Task-Oriented Semantic Parsing [0.0]
Amazon Alexa、Apple Siri、Google Assistantといったバーチャルアシスタントは、ユーザーが話す発話に対してどのアクションを実行するかを理解するために意味解析コンポーネントに依存することが多い。
本稿では,単純なクエリと複雑なクエリの両方を扱うために,Sequence to SequenceモデルとPointer Generator Networkに基づく統一アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-01-30T17:11:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。