論文の概要: Superlatives in Context: Modeling the Implicit Semantics of Superlatives
- arxiv url: http://arxiv.org/abs/2405.20967v2
- Date: Thu, 17 Oct 2024 17:19:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:16:35.564912
- Title: Superlatives in Context: Modeling the Implicit Semantics of Superlatives
- Title(参考訳): 文脈における表在物:表在物の含意意味論をモデル化する
- Authors: Valentina Pyatkin, Bonnie Webber, Ido Dagan, Reut Tsarfaty,
- Abstract要約: 重ね合わせは、最大/最小の性質を持つ要素を選別するために用いられる。
重ね合わせは暗黙の現象や談話制限を研究するのに理想的な現象である。
現代のモデルでは、文脈における最上級のセマンティクスの微粒化が困難であることが示される。
- 参考スコア(独自算出の注目度): 31.063753498947346
- License:
- Abstract: Superlatives are used to single out elements with a maximal/minimal property. Semantically, superlatives perform a set comparison: something (or some things) has the min/max property out of a set. As such, superlatives provide an ideal phenomenon for studying implicit phenomena and discourse restrictions. While this comparison set is often not explicitly defined, its (implicit) restrictions can be inferred from the discourse context the expression appears in. In this work we provide an extensive computational study on the semantics of superlatives. We propose a unified account of superlative semantics which allows us to derive a broad-coverage annotation schema. Using this unified schema we annotated a multi-domain dataset of superlatives and their semantic interpretations. We specifically focus on interpreting implicit or ambiguous superlative expressions, by analyzing how the discourse context restricts the set of interpretations. In a set of experiments we then analyze how well models perform at variations of predicting superlative semantics, with and without context. We show that the fine-grained semantics of superlatives in context can be challenging for contemporary models, including GPT-4.
- Abstract(参考訳): 重ね合わせは、最大/最小の性質を持つ要素を選別するために用いられる。
Semantically, superlatives perform a set comparison: something ( or some things) have the min/max property from a set。
このように、最上層部は暗黙の現象や談話の制限を研究するのに理想的な現象である。
この比較セットは明示的に定義されないことが多いが、その(単純な)制限は、表現が現れる談話コンテキストから推測することができる。
本研究では,要約のセマンティクスに関する広範な計算研究について述べる。
我々は、広範囲のアノテーションスキーマを導出できるように、最上級のセマンティクスの統一的なアカウントを提案する。
この統合スキーマを使用して、複数のドメインのデータセットとそれらの意味解釈を注釈付けしました。
我々は特に暗黙的あるいは曖昧な表現の解釈に焦点をあて、言説コンテキストが解釈の集合を制限する方法を分析する。
実験のセットでは、予測可能なセマンティクスのバリエーションでモデルがどのようにうまく機能するかを、文脈なしで分析します。
GPT-4を含む同時代のモデルでは,文脈における最上級のセマンティクスの微粒化が困難であることを示す。
関連論文リスト
- Explicating the Implicit: Argument Detection Beyond Sentence Boundaries [24.728886446551577]
本稿では,文境界を越えた意味的関係を捉えるために,文内包による議論検出の問題を再検討する。
本手法は直接監視を必要としないが,データセット不足のため一般的には欠落している。
近年の文書レベルのベンチマークでは、教師付き手法や現代言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-08-08T06:18:24Z) - Syntax and Semantics Meet in the "Middle": Probing the Syntax-Semantics
Interface of LMs Through Agentivity [68.8204255655161]
このような相互作用を探索するためのケーススタディとして,作用性のセマンティックな概念を提示する。
これは、LMが言語アノテーション、理論テスト、発見のためのより有用なツールとして役立つ可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T16:24:01Z) - Simple Linguistic Inferences of Large Language Models (LLMs): Blind Spots and Blinds [59.71218039095155]
我々は,ほとんどの人間が自明に感じる単純な推論タスクにおいて,言語理解能力を評価する。
我々は, (i) 文法的に特定された含意, (ii) 不確実性のある明らかな副詞を持つ前提, (iii) 単調性含意を目標とする。
モデルはこれらの評価セットに対して中程度から低い性能を示す。
論文 参考訳(メタデータ) (2023-05-24T06:41:09Z) - Semantic-aware Contrastive Learning for More Accurate Semantic Parsing [32.74456368167872]
そこで本研究では,意味表現の微粒化を学習できる意味認識型コントラスト学習アルゴリズムを提案する。
2つの標準データセットの実験により、我々の手法はMLEベースラインよりも大幅に改善されていることが示された。
論文 参考訳(メタデータ) (2023-01-19T07:04:32Z) - SDA: Simple Discrete Augmentation for Contrastive Sentence Representation Learning [14.028140579482688]
SimCSEは、報告されているように、トリミング、単語削除、同義語置換といった個別の増強を驚くほど支配している。
我々は,句読点挿入,モーダル動詞,二重否定の3つの簡易かつ効果的な離散文拡張手法を開発した。
その結果,提案手法の優越性は一貫して向上した。
論文 参考訳(メタデータ) (2022-10-08T08:07:47Z) - UCTopic: Unsupervised Contrastive Learning for Phrase Representations
and Topic Mining [27.808028645942827]
UCTopicは、文脈対応のフレーズ表現とトピックマイニングのための、教師なしのコントラスト学習フレームワークである。
2つの句の文脈が同じ意味を持つかどうかを区別するために、大規模に事前訓練されている。
4つのエンティティクラスタリングタスクにおいて、最先端のフレーズ表現モデルを平均38.2%NMIで上回る。
論文 参考訳(メタデータ) (2022-02-27T22:43:06Z) - Clustering and Network Analysis for the Embedding Spaces of Sentences
and Sub-Sentences [69.3939291118954]
本稿では,文とサブ文の埋め込みを対象とする包括的クラスタリングとネットワーク解析について検討する。
その結果,1つの手法が最もクラスタリング可能な埋め込みを生成することがわかった。
一般に、スパン部分文の埋め込みは、原文よりもクラスタリング特性が優れている。
論文 参考訳(メタデータ) (2021-10-02T00:47:35Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Recursive Rules with Aggregation: A Simple Unified Semantics [0.6662800021628273]
本稿では,集約を伴う再帰の統一的意味論について述べる。
意味論を形式的に定義し、意味論の重要な性質を証明し、先行意味論と比較する。
私たちのセマンティクスはシンプルで、すべてのケースで望ましい結果と一致しています。
論文 参考訳(メタデータ) (2020-07-26T04:42:44Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。