論文の概要: Synthetic Dataset for Evaluating Complex Compositional Knowledge for
Natural Language Inference
- arxiv url: http://arxiv.org/abs/2307.05034v2
- Date: Wed, 12 Jul 2023 00:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-13 10:22:28.515873
- Title: Synthetic Dataset for Evaluating Complex Compositional Knowledge for
Natural Language Inference
- Title(参考訳): 自然言語推論のための複合合成知識評価のための合成データセット
- Authors: Sushma Anand Akoju, Robert Vacareanu, Haris Riaz, Eduardo Blanco,
Mihai Surdeanu
- Abstract要約: 論理学における構成性を理解するために,自然言語推論モデルの性能について検討する。
SICKデータセットから15の例を修正して1,304の文対を生成する。
- 参考スコア(独自算出の注目度): 20.460305290743097
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce a synthetic dataset called Sentences Involving Complex
Compositional Knowledge (SICCK) and a novel analysis that investigates the
performance of Natural Language Inference (NLI) models to understand
compositionality in logic. We produce 1,304 sentence pairs by modifying 15
examples from the SICK dataset (Marelli et al., 2014). To this end, we modify
the original texts using a set of phrases - modifiers that correspond to
universal quantifiers, existential quantifiers, negation, and other concept
modifiers in Natural Logic (NL) (MacCartney, 2009). We use these phrases to
modify the subject, verb, and object parts of the premise and hypothesis.
Lastly, we annotate these modified texts with the corresponding entailment
labels following NL rules. We conduct a preliminary verification of how well
the change in the structural and semantic composition is captured by neural NLI
models, in both zero-shot and fine-tuned scenarios. We found that the
performance of NLI models under the zero-shot setting is poor, especially for
modified sentences with negation and existential quantifiers. After fine-tuning
this dataset, we observe that models continue to perform poorly over negation,
existential and universal modifiers.
- Abstract(参考訳): 本稿では,SICCK(Sentences Involving Complex Compositional Knowledge)と呼ばれる合成データセットと,自然言語推論(NLI)モデルの性能を解析して,論理における構成性を理解する新しい分析手法を提案する。
SICKデータセット(Marelli et al., 2014)から15個の例を修正して1,304個の文対を生成する。
この目的のために,自然論理 (nl) における普遍量化子,存在量化子,否定,その他の概念修飾子に対応する修飾子 (maccartney, 2009) の組を用いて原文を修正した。
我々はこれらのフレーズを用いて、前提と仮説の主題、動詞、および対象部分を変更する。
最後に、これらの修正テキストに、NLルールに従って対応するエンテーメントラベルをアノテートする。
我々は、ゼロショットと微調整の両方のシナリオにおいて、ニューラルネットワークNLIモデルによって構造的および意味的構成の変化がどの程度うまく捉えられるかを予備検証する。
ゼロショット設定下でのnliモデルの性能は,特に否定文と存在量化子を用いた修正文では低かった。
このデータセットを微調整した後、モデルが否定、存在的、普遍的な修飾子よりも性能が低いことを観察する。
関連論文リスト
- Evaluating Semantic Variation in Text-to-Image Synthesis: A Causal Perspective [50.261681681643076]
本稿では,SemVarEffectとSemVarBenchというベンチマークを用いて,テキスト・画像合成における入力のセマンティックな変化と出力の因果性を評価する。
本研究は,T2I合成コミュニティによるヒューマンインストラクション理解の探索を促進する効果的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T08:45:35Z) - Semantic Sensitivities and Inconsistent Predictions: Measuring the
Fragility of NLI Models [44.56781176879151]
State-of-the-art Natural Language Inference (NLI)モデルは、表面形状の変化を保存するマイナーセマンティクスに敏感である。
セマンティックな感度は、平均$textbfin-$と$textbfout-of-$ドメイン設定よりも平均$12.92%と$23.71%のパフォーマンス劣化を引き起こす。
論文 参考訳(メタデータ) (2024-01-25T14:47:05Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - Multi-resolution Interpretation and Diagnostics Tool for Natural
Language Classifiers [0.0]
本稿では,意味論的に相互に関連のある単語のセグメントやクラスタによって,よりフレキシブルなモデル説明可能性要約を作成することを目的とする。
さらに,NLPモデルの根本原因分析手法を提案し,各セグメントのFalse PositiveとFalse Negativeを解析した。
論文 参考訳(メタデータ) (2023-03-06T22:59:02Z) - Recursive Neural Networks with Bottlenecks Diagnose
(Non-)Compositionality [65.60002535580298]
データの構成性の定量化は難しい課題であり、主に短い発話のために研究されている。
モデルにおけるデータの表現とボトルネックの有無を比較することで,構成性の測定値が得られることを示す。
本手法は、合成データを用いた算術式の評価と、自然言語データを用いた感情分類に適用する。
論文 参考訳(メタデータ) (2023-01-31T15:46:39Z) - Syntax-guided Neural Module Distillation to Probe Compositionality in
Sentence Embeddings [0.0]
構文解析に基づいてニューラルモジュールネットを構築し,それをエンドツーエンドにトレーニングし,文の埋め込みを近似する。
各種文埋め込みモデルの蒸留性の違いは,その性能と大きく相関している。
文埋め込みモデルにおける多くの構文誘導合成が線形であることの予備的証拠である。
論文 参考訳(メタデータ) (2023-01-21T19:42:02Z) - Language model acceptability judgements are not always robust to context [30.868765627701457]
目標構文評価における言語モデルの性能の安定性について検討する。
モデル判断は、ランダムにサンプル化された言語コンテキストに置かれる場合、一般的には堅牢である。
これらのモデル性能の変化は、コンテキストとテスト入力にマッチする単純な特徴によって説明できないことを示す。
論文 参考訳(メタデータ) (2022-12-18T00:11:06Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。