論文の概要: On The Ingredients of an Effective Zero-shot Semantic Parser
- arxiv url: http://arxiv.org/abs/2110.08381v1
- Date: Fri, 15 Oct 2021 21:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-21 23:06:37.031930
- Title: On The Ingredients of an Effective Zero-shot Semantic Parser
- Title(参考訳): 有効ゼロショット意味解析器の成分について
- Authors: Pengcheng Yin, John Wieting, Avirup Sil, Graham Neubig
- Abstract要約: 我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
- 参考スコア(独自算出の注目度): 95.01623036661468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic parsers map natural language utterances into meaning representations
(e.g., programs). Such models are typically bottlenecked by the paucity of
training data due to the required laborious annotation efforts. Recent studies
have performed zero-shot learning by synthesizing training examples of
canonical utterances and programs from a grammar, and further paraphrasing
these utterances to improve linguistic diversity. However, such synthetic
examples cannot fully capture patterns in real data. In this paper we analyze
zero-shot parsers through the lenses of the language and logical gaps (Herzig
and Berant, 2019), which quantify the discrepancy of language and programmatic
patterns between the canonical examples and real-world user-issued ones. We
propose bridging these gaps using improved grammars, stronger paraphrasers, and
efficient learning methods using canonical examples that most likely reflect
real user intents. Our model achieves strong performance on two semantic
parsing benchmarks (Scholar, Geo) with zero labeled data.
- Abstract(参考訳): 意味構文解析器は自然言語発話を意味表現(例えばプログラム)にマッピングする。
このようなモデルは通常、必要な注意深いアノテーションの努力のために、トレーニングデータの曖昧さによってボトルネックとなる。
近年の研究では、標準発話とプログラムの学習例を文法から合成してゼロショット学習を行い、さらにこれらの発話を言い換えて言語多様性を改善している。
しかし、そのような合成例は実データに完全にパターンをキャプチャできない。
本稿では,言語と論理ギャップ(herzig and berant, 2019)のレンズを通してゼロショットパーサーを解析し,正準例と実世界のユーザ発行例との言語パターンとプログラムパターンの相違を定量化する。
我々は,これらのギャップを,改良された文法,より強固なパラフレーサ,そして実際のユーザの意図を反映した正準例を用いた効率的な学習手法で橋渡しすることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
関連論文リスト
- On Robustness of Prompt-based Semantic Parsing with Large Pre-trained
Language Model: An Empirical Study on Codex [48.588772371355816]
本稿では,大規模なプロンプトベース言語モデルであるコーデックスの対角的ロバスト性に関する最初の実証的研究について述べる。
この結果から, 最先端の言語モデル(SOTA)は, 慎重に構築された敵の例に対して脆弱であることが示された。
論文 参考訳(メタデータ) (2023-01-30T13:21:00Z) - BenchCLAMP: A Benchmark for Evaluating Language Models on Syntactic and
Semantic Parsing [55.058258437125524]
本稿では,制約付きLanguage Model Parsingを評価するベンチマークであるBenchCLAMPを紹介する。
APIを通じてのみ利用可能な2つのGPT-3変種を含む8つの言語モデルをベンチマークする。
実験により,エンコーダ-デコーダ事前学習言語モデルでは,モデル出力が有効であると制約された場合に,構文解析や意味解析の最先端手法を超えることができることがわかった。
論文 参考訳(メタデータ) (2022-06-21T18:34:11Z) - Few-Shot Semantic Parsing with Language Models Trained On Code [52.23355024995237]
Codexは同等のGPT-3モデルよりもセマンティックパーシングが優れていることがわかった。
GPT-3とは異なり、Codexは意味表現を直接ターゲットとする場合、おそらく意味解析で使われる意味表現がコードと似た構造になっているように、同じように機能する。
論文 参考訳(メタデータ) (2021-12-16T08:34:06Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。