論文の概要: Is neural semantic parsing good at ellipsis resolution, or isn't it?
- arxiv url: http://arxiv.org/abs/2508.00121v1
- Date: Thu, 31 Jul 2025 19:23:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.645823
- Title: Is neural semantic parsing good at ellipsis resolution, or isn't it?
- Title(参考訳): ニューラルセマンティックパーシングは楕円分解能に優れていますか?
- Authors: Xiao Zhang, Johan bos,
- Abstract要約: ニューラルセマンティクスは、様々な言語現象に対して優れた総合的な性能を示し、90%以上のセマンティクスマッチングスコアに達した。
英語の動詞句エリプシス(ellipsis)は、すべての動詞句を1つの補助動詞で省略できる構造である。
そうでなければ、強力なセマンティクスとして知られていますが、エリプシスに対処できるのでしょうか?
そこで我々は,120例のエリプシスのコーパスを構築し,その表現を解決し,神経意味論の大きな電池の挑戦セットとして利用した。
- 参考スコア(独自算出の注目度): 7.8094805916085015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural semantic parsers have shown good overall performance for a variety of linguistic phenomena, reaching semantic matching scores of more than 90%. But how do such parsers perform on strongly context-sensitive phenomena, where large pieces of semantic information need to be duplicated to form a meaningful semantic representation? A case in point is English verb phrase ellipsis, a construct where entire verb phrases can be abbreviated by a single auxiliary verb. Are the otherwise known as powerful semantic parsers able to deal with ellipsis or aren't they? We constructed a corpus of 120 cases of ellipsis with their fully resolved meaning representation and used this as a challenge set for a large battery of neural semantic parsers. Although these parsers performed very well on the standard test set, they failed in the instances with ellipsis. Data augmentation
- Abstract(参考訳): ニューラル・セマンティック・パーサーは、様々な言語現象に対して優れた全体的な性能を示し、90%以上のセマンティック・マッチングスコアに達した。
しかし、そのようなパーサーは、意味のある意味表現を形成するために大量の意味情報を複製する必要がある強い文脈に敏感な現象に対してどのように機能するのか?
英語の動詞句 ellipsis は、すべての動詞句を1つの補助動詞で省略できる構造である。
さもなければ、強力なセマンティックパーザとして知られていますが、エリプシに対処できるのでしょうか?
我々は,120例のエリプシスのコーパスを完全解決された意味表現を用いて構築し,これをニューラルセマンティックパーサーの大きな電池の挑戦セットとして利用した。
これらのパーサーは標準的なテストセットで非常によく機能したが、楕円のインスタンスでは失敗した。
データ拡張
関連論文リスト
- Self-Supervised Speech Representations are More Phonetic than Semantic [52.02626675137819]
自己教師付き音声モデル(S3Ms)は、音声応用の有効なバックボーンとなっている。
S3Msで符号化された単語レベルの言語特性のよりきめ細かい分析を求める。
本研究により,S3M表現は意味的類似性よりも連続的かつ顕著に音声的類似性を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-06-12T20:04:44Z) - Do Pretrained Contextual Language Models Distinguish between Hebrew Homograph Analyses? [12.631897904322676]
本研究では,ヘブライ語のホモグラフの曖昧さについて,事前学習言語モデルを用いて検討する。
現代ヘブライ語における文脈的埋め込みは,非文脈的埋め込みよりも優れていることを示す。
また、これらの埋め込みは、バランスの取れた分布と歪んだ分布の両方のホモグラフに対して等しく有効であることを示す。
論文 参考訳(メタデータ) (2024-05-11T21:50:56Z) - Fantastic Semantics and Where to Find Them: Investigating Which Layers of Generative LLMs Reflect Lexical Semantics [50.982315553104975]
本稿では,Llama2という人気言語モデルに対する語彙意味論のボトムアップ進化について検討する。
実験の結果,下位層の表現は語彙的意味論を符号化しているが,上位層はより弱い意味帰納的帰納的帰納的帰納的帰納的帰納的帰納的帰属的帰属的帰属的帰属的存在であることがわかった。
これは、高層層がより良い語彙意味論を得るマスク言語モデリングのような差別的な目的を持つモデルとは対照的である。
論文 参考訳(メタデータ) (2024-03-03T13:14:47Z) - Laziness Is a Virtue When It Comes to Compositionality in Neural
Semantic Parsing [20.856601758389544]
本稿では,論理形式の葉から始まる論理形式をボトムアップから構築するニューラルセマンティック解析生成手法を提案する。
我々の新しいボトムアップ・パーシング・セマンティック・テクニックは、汎用的なセマンティクスよりも優れており、同等のニューラル・セマンティクスと競合していることを示す。
論文 参考訳(メタデータ) (2023-05-07T17:53:08Z) - Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans
vs. BERT [64.40111510974957]
英語における主語数合意に意味が干渉するかどうかを検証する。
意味的によく形づくられた、意味のないアイテムを生成します。
BERTと人間はどちらも、セマンティックな操作に敏感である。
論文 参考訳(メタデータ) (2022-09-21T17:57:23Z) - Grammatical cues to subjecthood are redundant in a majority of simple
clauses across languages [16.432784321296104]
文法的な手がかりは、自然言語で単語の意味と重複することがある。
私たちは英語とロシア語で行動実験を行った。
8つの言語族の30言語にまたがって、パフォーマンスは一貫して高かった。
論文 参考訳(メタデータ) (2022-01-30T21:01:10Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - Speakers Fill Lexical Semantic Gaps with Context [65.08205006886591]
我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
論文 参考訳(メタデータ) (2020-10-05T17:19:10Z) - Using Holographically Compressed Embeddings in Question Answering [0.0]
本研究では,事前学習した埋め込みのホログラフィック圧縮を用いてトークン,そのパート・オブ・音声,名前付きエンティティタイプを表現する。
この実装は、修正された質問応答の繰り返しディープラーニングネットワークにおいて、意味的関係が保存され、高い性能が得られることを示す。
論文 参考訳(メタデータ) (2020-07-14T18:29:49Z) - Hinting Semantic Parsing with Statistical Word Sense Disambiguation [6.4182601340261956]
統計的WSDシステムからヒントを提供し、結果の論理形式を維持しながら論理的意味型代入を導出する。
我々はFスコアの最大10.5%の改善を観察するが、この改善はパースの構造的整合性にコストがかかる。
論文 参考訳(メタデータ) (2020-06-29T11:20:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。