論文の概要: Superlatives in Context: Modeling the Implicit Semantics of Superlatives
- arxiv url: http://arxiv.org/abs/2405.20967v2
- Date: Thu, 17 Oct 2024 17:19:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:16:35.564912
- Title: Superlatives in Context: Modeling the Implicit Semantics of Superlatives
- Title(参考訳): 文脈における表在物:表在物の含意意味論をモデル化する
- Authors: Valentina Pyatkin, Bonnie Webber, Ido Dagan, Reut Tsarfaty,
- Abstract要約: 重ね合わせは、最大/最小の性質を持つ要素を選別するために用いられる。
重ね合わせは暗黙の現象や談話制限を研究するのに理想的な現象である。
現代のモデルでは、文脈における最上級のセマンティクスの微粒化が困難であることが示される。
- 参考スコア(独自算出の注目度): 31.063753498947346
- License:
- Abstract: Superlatives are used to single out elements with a maximal/minimal property. Semantically, superlatives perform a set comparison: something (or some things) has the min/max property out of a set. As such, superlatives provide an ideal phenomenon for studying implicit phenomena and discourse restrictions. While this comparison set is often not explicitly defined, its (implicit) restrictions can be inferred from the discourse context the expression appears in. In this work we provide an extensive computational study on the semantics of superlatives. We propose a unified account of superlative semantics which allows us to derive a broad-coverage annotation schema. Using this unified schema we annotated a multi-domain dataset of superlatives and their semantic interpretations. We specifically focus on interpreting implicit or ambiguous superlative expressions, by analyzing how the discourse context restricts the set of interpretations. In a set of experiments we then analyze how well models perform at variations of predicting superlative semantics, with and without context. We show that the fine-grained semantics of superlatives in context can be challenging for contemporary models, including GPT-4.
- Abstract(参考訳): 重ね合わせは、最大/最小の性質を持つ要素を選別するために用いられる。
Semantically, superlatives perform a set comparison: something ( or some things) have the min/max property from a set。
このように、最上層部は暗黙の現象や談話の制限を研究するのに理想的な現象である。
この比較セットは明示的に定義されないことが多いが、その(単純な)制限は、表現が現れる談話コンテキストから推測することができる。
本研究では,要約のセマンティクスに関する広範な計算研究について述べる。
我々は、広範囲のアノテーションスキーマを導出できるように、最上級のセマンティクスの統一的なアカウントを提案する。
この統合スキーマを使用して、複数のドメインのデータセットとそれらの意味解釈を注釈付けしました。
我々は特に暗黙的あるいは曖昧な表現の解釈に焦点をあて、言説コンテキストが解釈の集合を制限する方法を分析する。
実験のセットでは、予測可能なセマンティクスのバリエーションでモデルがどのようにうまく機能するかを、文脈なしで分析します。
GPT-4を含む同時代のモデルでは,文脈における最上級のセマンティクスの微粒化が困難であることを示す。
関連論文リスト
- UltraWiki: Ultra-fine-grained Entity Set Expansion with Negative Seed Entities [38.85274314130823]
入力に負のシードエンティティを導入し、正のシードエンティティと同じ粒度のセマンティッククラスに属するが、特定の属性が異なる。
負の種実体は、正と負の属性の対比によって意味的あいまいさを排除している。
超きめ細かなエンティティセマンティクスの理解を強化するための3つの戦略を考案した。
論文 参考訳(メタデータ) (2024-03-07T06:10:02Z) - Syntax and Semantics Meet in the "Middle": Probing the Syntax-Semantics
Interface of LMs Through Agentivity [68.8204255655161]
このような相互作用を探索するためのケーススタディとして,作用性のセマンティックな概念を提示する。
これは、LMが言語アノテーション、理論テスト、発見のためのより有用なツールとして役立つ可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-29T16:24:01Z) - Entity Disambiguation with Entity Definitions [50.01142092276296]
ローカルモデルはEntity Disambiguation (ED)で最近驚くべきパフォーマンスを達成した
それまでの研究は、各候補者のテキスト表現として、ウィキペディアのタイトルのみを使うことに限られていた。
本稿では、この制限に対処し、より表現力のあるテキスト表現がそれを緩和できる範囲について検討する。
提案する6つのベンチマークのうち2つに新たな技術の現状を報告し,未知のパターンに対する一般化能力を強く改善する。
論文 参考訳(メタデータ) (2022-10-11T17:46:28Z) - SDA: Simple Discrete Augmentation for Contrastive Sentence Representation Learning [14.028140579482688]
SimCSEは、報告されているように、トリミング、単語削除、同義語置換といった個別の増強を驚くほど支配している。
我々は,句読点挿入,モーダル動詞,二重否定の3つの簡易かつ効果的な離散文拡張手法を開発した。
その結果,提案手法の優越性は一貫して向上した。
論文 参考訳(メタデータ) (2022-10-08T08:07:47Z) - UCTopic: Unsupervised Contrastive Learning for Phrase Representations
and Topic Mining [27.808028645942827]
UCTopicは、文脈対応のフレーズ表現とトピックマイニングのための、教師なしのコントラスト学習フレームワークである。
2つの句の文脈が同じ意味を持つかどうかを区別するために、大規模に事前訓練されている。
4つのエンティティクラスタリングタスクにおいて、最先端のフレーズ表現モデルを平均38.2%NMIで上回る。
論文 参考訳(メタデータ) (2022-02-27T22:43:06Z) - Clustering and Network Analysis for the Embedding Spaces of Sentences
and Sub-Sentences [69.3939291118954]
本稿では,文とサブ文の埋め込みを対象とする包括的クラスタリングとネットワーク解析について検討する。
その結果,1つの手法が最もクラスタリング可能な埋め込みを生成することがわかった。
一般に、スパン部分文の埋め込みは、原文よりもクラスタリング特性が優れている。
論文 参考訳(メタデータ) (2021-10-02T00:47:35Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - MAIRE -- A Model-Agnostic Interpretable Rule Extraction Procedure for
Explaining Classifiers [5.02231401459109]
本稿では,モデルに依存しない人間の解釈可能なルールを抽出し,分類器の出力を説明する新しい枠組みを提案する。
フレームワークはモデル非依存であり、任意の分類器に適用でき、すべての属性(連続、順序、順序なしの離散を含む)を適用できる。
論文 参考訳(メタデータ) (2020-11-03T06:53:06Z) - Recursive Rules with Aggregation: A Simple Unified Semantics [0.6662800021628273]
本稿では,集約を伴う再帰の統一的意味論について述べる。
意味論を形式的に定義し、意味論の重要な性質を証明し、先行意味論と比較する。
私たちのセマンティクスはシンプルで、すべてのケースで望ましい結果と一致しています。
論文 参考訳(メタデータ) (2020-07-26T04:42:44Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。