論文の概要: Laziness Is a Virtue When It Comes to Compositionality in Neural
Semantic Parsing
- arxiv url: http://arxiv.org/abs/2305.04346v1
- Date: Sun, 7 May 2023 17:53:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:24:38.702987
- Title: Laziness Is a Virtue When It Comes to Compositionality in Neural
Semantic Parsing
- Title(参考訳): 神経意味的パーシングにおける合成性を考える
- Authors: Maxwell Crouse, Pavan Kapanipathi, Subhajit Chaudhury, Tahira Naseem,
Ramon Astudillo, Achille Fokoue, Tim Klinger
- Abstract要約: 本稿では,論理形式の葉から始まる論理形式をボトムアップから構築するニューラルセマンティック解析生成手法を提案する。
我々の新しいボトムアップ・パーシング・セマンティック・テクニックは、汎用的なセマンティクスよりも優れており、同等のニューラル・セマンティクスと競合していることを示す。
- 参考スコア(独自算出の注目度): 20.856601758389544
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nearly all general-purpose neural semantic parsers generate logical forms in
a strictly top-down autoregressive fashion. Though such systems have achieved
impressive results across a variety of datasets and domains, recent works have
called into question whether they are ultimately limited in their ability to
compositionally generalize. In this work, we approach semantic parsing from,
quite literally, the opposite direction; that is, we introduce a neural
semantic parsing generation method that constructs logical forms from the
bottom up, beginning from the logical form's leaves. The system we introduce is
lazy in that it incrementally builds up a set of potential semantic parses, but
only expands and processes the most promising candidate parses at each
generation step. Such a parsimonious expansion scheme allows the system to
maintain an arbitrarily large set of parse hypotheses that are never realized
and thus incur minimal computational overhead. We evaluate our approach on
compositional generalization; specifically, on the challenging CFQ dataset and
three Text-to-SQL datasets where we show that our novel, bottom-up semantic
parsing technique outperforms general-purpose semantic parsers while also being
competitive with comparable neural parsers that have been designed for each
task.
- Abstract(参考訳): ほぼすべての汎用神経意味解析器は、厳密にトップダウンの自己回帰的な方法で論理形式を生成する。
このようなシステムは、さまざまなデータセットやドメインで印象的な成果を上げているが、近年の研究では、合成一般化能力が最終的に制限されているかどうか疑問視されている。
本研究では,意味的構文解析を,文字通り逆の方向からアプローチする。つまり,論理形式の葉から始まり,ボトムアップから論理形式を構築するニューラル意味的構文解析生成手法を導入する。
私たちが導入したシステムは、潜在的なセマンティックパースを段階的に構築するが、各生成ステップで最も有望な候補パースを拡大して処理するだけである。
このような擬似展開スキームにより、システムは任意の大きさのパース仮説を維持でき、それは実現されず、最小限の計算オーバーヘッドを発生させる。
特に,CFQデータセットと3つのText-to-SQLデータセットにおいて,新しいボトムアップセマンティックパーシング技術が汎用セマンティックパーサよりも優れており,また,タスク毎に設計された同等のニューラルパーサと競合していることを示す。
関連論文リスト
- LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Variational Cross-Graph Reasoning and Adaptive Structured Semantics
Learning for Compositional Temporal Grounding [143.5927158318524]
テンポラルグラウンドティング(Temporal grounding)とは、クエリ文に従って、未編集のビデオから特定のセグメントを特定するタスクである。
新たに構成時間グラウンドタスクを導入し,2つの新しいデータセット分割を構築した。
ビデオや言語に内在する構造的意味論は、構成的一般化を実現する上で重要な要素である、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-22T08:02:23Z) - Hierarchical Neural Data Synthesis for Semantic Parsing [16.284764879030448]
セマンティック解析のためのデータ拡張の純粋にニューラルなアプローチを提案する。
ゼロショット増強による開発セットの最先端性能(精度77.2%)を達成する。
論文 参考訳(メタデータ) (2021-12-04T01:33:08Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - Neural Abstructions: Abstractions that Support Construction for Grounded
Language Learning [69.1137074774244]
言語の相互作用を効果的に活用するには、言語基底に対する2つの最も一般的なアプローチの制限に対処する必要がある。
本稿では,ラベル条件付き生成モデルの推論手順に対する制約のセットであるニューラル・アブストラクションの考え方を紹介する。
この手法により,マインクラフトにおけるオープンエンドハウスタスクのセマンティックな変更をユーザ人口が構築できることが示される。
論文 参考訳(メタデータ) (2021-07-20T07:01:15Z) - The Limitations of Limited Context for Constituency Parsing [27.271792317099045]
Shen et al., 2018a)の構文解析アーキテクチャは、教師なし構文解析を最初に行った。
現在の構文に対するニューラルアプローチはどのような構文構造を表現できるのか?
我々は確率論的自由文法(PCFG)のサンドボックスにこの疑問を解いた。
これらのアプローチの表現力の重要な側面は、予測者がアクセス可能なコンテキストの量と方向性である。
論文 参考訳(メタデータ) (2021-06-03T03:58:35Z) - SyGNS: A Systematic Generalization Testbed Based on Natural Language
Semantics [39.845425535943534]
自然言語セマンティックス(SyGNS)に基づく体系的一般化テストベッドを提案する。
ニューラルネットワークが、量化子や否定といった論理式の新しい組み合わせを含む文を体系的に解析できるかどうかを検証する。
実験により、Transformer と GRU モデルは、与えられたトレーニングインスタンスの形式に類似しているが、他のモデルには似ていない量化器、否定器、修飾器の組み合わせに一般化できることが示された。
論文 参考訳(メタデータ) (2021-06-02T11:24:41Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Compositional Generalization and Natural Language Variation: Can a
Semantic Parsing Approach Handle Both? [27.590858384414567]
私たちは、自然言語のバリエーションと合成の一般化の両方を扱う意味解析アプローチを開発できますか?
我々は、この能力をよりよく評価するために、非合成データセットの新しいトレインとテスト分割を提案する。
また、NQG-T5は、高精度文法に基づくアプローチと事前学習されたシーケンス・ツー・シーケンスモデルを組み合わせたハイブリッドモデルである。
論文 参考訳(メタデータ) (2020-10-24T00:38:27Z) - Compositional Generalization via Semantic Tagging [81.24269148865555]
本稿では,シーケンス・ツー・シーケンスモデルの表現性と一般性を保存するための新しいデコードフレームワークを提案する。
提案手法は, モデルアーキテクチャ, ドメイン, セマンティックフォーマリズム間の構成一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2020-10-22T15:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。