論文の概要: ConjNLI: Natural Language Inference Over Conjunctive Sentences
- arxiv url: http://arxiv.org/abs/2010.10418v2
- Date: Wed, 21 Oct 2020 21:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:03:21.136281
- Title: ConjNLI: Natural Language Inference Over Conjunctive Sentences
- Title(参考訳): ConjNLI: 接続文に対する自然言語推論
- Authors: Swarnadeep Saha, Yixin Nie, Mohit Bansal
- Abstract要約: 連接文における連接関係の推論は、連接関係のより深い理解にとって重要である。
既存のNLIストレステストでは、結合の非ブール的使用は考慮されていない。
本稿では,接続文に対する自然言語推論のためのストレステストであるConjNLIを紹介する。
- 参考スコア(独自算出の注目度): 89.50542552451368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning about conjuncts in conjunctive sentences is important for a deeper
understanding of conjunctions in English and also how their usages and
semantics differ from conjunctive and disjunctive boolean logic. Existing NLI
stress tests do not consider non-boolean usages of conjunctions and use
templates for testing such model knowledge. Hence, we introduce ConjNLI, a
challenge stress-test for natural language inference over conjunctive
sentences, where the premise differs from the hypothesis by conjuncts removed,
added, or replaced. These sentences contain single and multiple instances of
coordinating conjunctions ("and", "or", "but", "nor") with quantifiers,
negations, and requiring diverse boolean and non-boolean inferences over
conjuncts. We find that large-scale pre-trained language models like RoBERTa do
not understand conjunctive semantics well and resort to shallow heuristics to
make inferences over such sentences. As some initial solutions, we first
present an iterative adversarial fine-tuning method that uses synthetically
created training data based on boolean and non-boolean heuristics. We also
propose a direct model advancement by making RoBERTa aware of predicate
semantic roles. While we observe some performance gains, ConjNLI is still
challenging for current methods, thus encouraging interesting future work for
better understanding of conjunctions. Our data and code are publicly available
at: https://github.com/swarnaHub/ConjNLI
- Abstract(参考訳): 接続文における接続に関する推論は、英語における結合の深い理解、およびそれらの使用法と意味が結合論理と解離ブール論理とどのように異なるかを理解するために重要である。
既存のnliストレステストでは、結合の非boolean使用を考慮せず、モデル知識をテストするためのテンプレートを使用する。
そこで,ConjNLIは,接続文に対する自然言語推論の挑戦的ストレステストであり,その前提は接続文の削除,追加,置換による仮説と異なる。
これらの文は、量化器、否定器、および様々なブールおよび非ブール推論を必要とする結合(and, "or", "but", "nor")を調整した単一および複数例を含む。
RoBERTaのような大規模事前学習型言語モデルでは、接続意味論をうまく理解できず、浅いヒューリスティックスを用いてそのような文を推測する。
まず,boolean と non-boolean のヒューリスティックに基づく合成学習データを用いた反復的逆微調整法を提案する。
また,RoBERTaにセマンティックな役割を意識させることにより,直接モデルの発展を提案する。
いくつかのパフォーマンス向上を観察する一方で、ConjNLIは現在のメソッドでは依然として困難です。
私たちのデータとコードは、https://github.com/swarnaHub/ConjNLIで公開されています。
関連論文リスト
- BoolQuestions: Does Dense Retrieval Understand Boolean Logic in Language? [88.29075896295357]
まず,現在の検索システムが,言語に暗示されるブール論理を理解できるかを検討する。
広範な実験結果から,現在の高密度検索システムはブール論理を十分に理解していないという結論を導いた。
本研究では,研究コミュニティの強力な基盤となるコントラスト的連続学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-19T05:19:53Z) - Generating Diverse Negations from Affirmative Sentences [0.999726509256195]
否定は、動詞句、節、その他の表現において負の極性を符号化する現実世界の応用において重要である。
多様な否定型を生成することにより,否定データセットの欠如に対処する手法であるNegVerseを提案する。
我々は,構文構造に基づいて,否定が最も起こりやすい文の一部をマスキングするための新しい規則を提案する。
また, 否定の手がかりを同定し, 退化例を除去し, 多様な有意義な摂動を生じさせるフィルタリング機構を提案する。
論文 参考訳(メタデータ) (2024-10-30T21:25:02Z) - Conjunctive categorial grammars and Lambek grammars with additives [49.1574468325115]
基本分類文法を結合操作で強化することにより,新しい分類文法群が提案される。
また、連結な圏文法はランベック計算に自然に結合および共役演算と共役演算を組み込むことが示されている。
論文 参考訳(メタデータ) (2024-05-26T18:53:56Z) - Language Models Can Learn Exceptions to Syntactic Rules [22.810889064523167]
人工ニューラルネットワークは、新しい文脈に生産的に一般化できることを示す。
また、能動対受動音声における動詞の相対的受容性は、それらの音声における動詞の相対的受容頻度と正の相関性を示す。
論文 参考訳(メタデータ) (2023-06-09T15:35:11Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans
vs. BERT [64.40111510974957]
英語における主語数合意に意味が干渉するかどうかを検証する。
意味的によく形づくられた、意味のないアイテムを生成します。
BERTと人間はどちらも、セマンティックな操作に敏感である。
論文 参考訳(メタデータ) (2022-09-21T17:57:23Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - Are Natural Language Inference Models IMPPRESsive? Learning IMPlicature
and PRESupposition [17.642255516887968]
自然言語推論(NLI)は、自然言語理解にとってますます重要なタスクである。
NLIモデルが実用的推論を行う能力はまだ検討されていない。
BERT, InferSent, BOW NLIモデルがMultiNLIで訓練された場合, 実用的推論を学習するかを評価する。
論文 参考訳(メタデータ) (2020-04-07T01:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。