論文の概要: Scope-enhanced Compositional Semantic Parsing for DRT
- arxiv url: http://arxiv.org/abs/2407.01899v1
- Date: Tue, 2 Jul 2024 02:50:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 17:03:34.734215
- Title: Scope-enhanced Compositional Semantic Parsing for DRT
- Title(参考訳): DRTのためのスコープ強化合成セマンティックパーシング
- Authors: Xiulin Yang, Jonas Groschwitz, Alexander Koller, Johan Bos,
- Abstract要約: 談話表現のための構成的, 神経象徴的意味的ニューロシンボリックAMS理論について紹介する。
我々は, AMS が良好な出力を確実に生成し, DRT 解析, 特に複雑な文に対して良好に動作することを示す。
- 参考スコア(独自算出の注目度): 52.657454970993086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discourse Representation Theory (DRT) distinguishes itself from other semantic representation frameworks by its ability to model complex semantic and discourse phenomena through structural nesting and variable binding. While seq2seq models hold the state of the art on DRT parsing, their accuracy degrades with the complexity of the sentence, and they sometimes struggle to produce well-formed DRT representations. We introduce the AMS parser, a compositional, neurosymbolic semantic parser for DRT. It rests on a novel mechanism for predicting quantifier scope. We show that the AMS parser reliably produces well-formed outputs and performs well on DRT parsing, especially on complex sentences.
- Abstract(参考訳): 談話表現理論(DRT)は、構造的なネストや変数結合を通じて複雑な意味論や談話現象をモデル化する能力によって、他の意味表現フレームワークと区別する。
Seq2seqモデルはDRT解析の最先端を保っているが、その正確さは文の複雑さによって低下し、よく形成されたDRT表現を生成するのに苦労することがある。
本稿では,DRTのための合成・ニューロシンボリック・セマンティック・パーサーであるAMSパーサーを紹介する。
それは量化器のスコープを予測するための新しいメカニズムに依存している。
本稿では, AMSパーサが良好な出力を確実に生成し, DRTパーサ, 特に複雑な文に対して良好に動作することを示す。
関連論文リスト
- Complex Event Recognition with Symbolic Register Transducers: Extended Technical Report [51.86861492527722]
本稿では,オートマトンに基づく複合イベント認識システムを提案する。
本システムは,記号とレジスタオートマトンを組み合わせたオートマトンモデルに基づいている。
我々は、イベントストリーム上のパターンを検出するために、SRTをCERでどのように使用できるかを示す。
論文 参考訳(メタデータ) (2024-07-03T07:59:13Z) - Spatial Semantic Recurrent Mining for Referring Image Segmentation [63.34997546393106]
高品質なクロスモーダリティ融合を実現するために,Stextsuperscript2RMを提案する。
これは、言語特徴の分散、空間的意味的再帰的分離、パーセマンティック・セマンティック・バランシングという三部作の作業戦略に従う。
提案手法は他の最先端アルゴリズムに対して好適に機能する。
論文 参考訳(メタデータ) (2024-05-15T00:17:48Z) - "You Are An Expert Linguistic Annotator": Limits of LLMs as Analyzers of
Abstract Meaning Representation [60.863629647985526]
文意味構造の解析において, GPT-3, ChatGPT, および GPT-4 モデルの成功と限界について検討した。
モデルはAMRの基本形式を確実に再現でき、しばしばコアイベント、引数、修飾子構造をキャプチャできる。
全体としては,これらのモデルではセマンティック構造の側面を捉えることができるが,完全に正確なセマンティック解析や解析をサポートする能力には重要な制限が残されている。
論文 参考訳(メタデータ) (2023-10-26T21:47:59Z) - Widely Interpretable Semantic Representation: Frameless Meaning
Representation for Broader Applicability [10.710058244695128]
本稿では,抽象的意味表現 (AMR) の課題を克服する新しい意味表現 WISeR を提案する。
その強みにもかかわらず、AMRは事前に定義されたセマンティックフレームなしでは言語やドメインに簡単に適用できない。
WISeRとAMR WISeRの両方で1Kの英会話文の新たなコーパスを作成する。
論文 参考訳(メタデータ) (2023-09-12T17:44:40Z) - Enriching Transformers with Structured Tensor-Product Representations
for Abstractive Summarization [131.23966358405767]
抽象的な要約のタスクに対して,明示的に構成された製品表現(TPR)をTP-TRANSFORMERに適用する。
モデルの主な特徴は、トークンごとに2つの別々の表現を符号化することで導入する構造バイアスである。
本稿では,TP-TRANSFORMER が Transformer と TP-TRANSFORMER より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T17:32:33Z) - Learning symbol relation tree for online mathematical expression
recognition [7.868468656324007]
本稿では,記号関係木(SRT)をストローク列から直接構築することで,オンライン手書き数式(OnHME)を認識できる手法を提案する。
双方向リカレントニューラルネットワークは、SRTの複数の派生経路から学習し、グローバルコンテキストを用いてシンボル間のシンボルと空間的関係を予測する。
この認識システムは、オンライン手書き数式(CROHME)2014および2016のテストセットに関するコンペティションで44.12%および41.76%の表現認識率を達成している。
論文 参考訳(メタデータ) (2021-05-13T05:18:17Z) - DRS at MRP 2020: Dressing up Discourse Representation Structures as
Graphs [4.21235641628176]
本稿では、DRTを新しいフレームワークとして含めるためのラベル付きグラフとしてDRSをドレッシングする手順について述べる。
変換手順は、DRTグラフフレームワークを他のグラフベースの意味表現フレームワークと幾らか似ているように偏った。
論文 参考訳(メタデータ) (2020-12-29T16:36:49Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。