論文の概要: ConjNLI: Natural Language Inference Over Conjunctive Sentences
- arxiv url: http://arxiv.org/abs/2010.10418v2
- Date: Wed, 21 Oct 2020 21:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:03:21.136281
- Title: ConjNLI: Natural Language Inference Over Conjunctive Sentences
- Title(参考訳): ConjNLI: 接続文に対する自然言語推論
- Authors: Swarnadeep Saha, Yixin Nie, Mohit Bansal
- Abstract要約: 連接文における連接関係の推論は、連接関係のより深い理解にとって重要である。
既存のNLIストレステストでは、結合の非ブール的使用は考慮されていない。
本稿では,接続文に対する自然言語推論のためのストレステストであるConjNLIを紹介する。
- 参考スコア(独自算出の注目度): 89.50542552451368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reasoning about conjuncts in conjunctive sentences is important for a deeper
understanding of conjunctions in English and also how their usages and
semantics differ from conjunctive and disjunctive boolean logic. Existing NLI
stress tests do not consider non-boolean usages of conjunctions and use
templates for testing such model knowledge. Hence, we introduce ConjNLI, a
challenge stress-test for natural language inference over conjunctive
sentences, where the premise differs from the hypothesis by conjuncts removed,
added, or replaced. These sentences contain single and multiple instances of
coordinating conjunctions ("and", "or", "but", "nor") with quantifiers,
negations, and requiring diverse boolean and non-boolean inferences over
conjuncts. We find that large-scale pre-trained language models like RoBERTa do
not understand conjunctive semantics well and resort to shallow heuristics to
make inferences over such sentences. As some initial solutions, we first
present an iterative adversarial fine-tuning method that uses synthetically
created training data based on boolean and non-boolean heuristics. We also
propose a direct model advancement by making RoBERTa aware of predicate
semantic roles. While we observe some performance gains, ConjNLI is still
challenging for current methods, thus encouraging interesting future work for
better understanding of conjunctions. Our data and code are publicly available
at: https://github.com/swarnaHub/ConjNLI
- Abstract(参考訳): 接続文における接続に関する推論は、英語における結合の深い理解、およびそれらの使用法と意味が結合論理と解離ブール論理とどのように異なるかを理解するために重要である。
既存のnliストレステストでは、結合の非boolean使用を考慮せず、モデル知識をテストするためのテンプレートを使用する。
そこで,ConjNLIは,接続文に対する自然言語推論の挑戦的ストレステストであり,その前提は接続文の削除,追加,置換による仮説と異なる。
これらの文は、量化器、否定器、および様々なブールおよび非ブール推論を必要とする結合(and, "or", "but", "nor")を調整した単一および複数例を含む。
RoBERTaのような大規模事前学習型言語モデルでは、接続意味論をうまく理解できず、浅いヒューリスティックスを用いてそのような文を推測する。
まず,boolean と non-boolean のヒューリスティックに基づく合成学習データを用いた反復的逆微調整法を提案する。
また,RoBERTaにセマンティックな役割を意識させることにより,直接モデルの発展を提案する。
いくつかのパフォーマンス向上を観察する一方で、ConjNLIは現在のメソッドでは依然として困難です。
私たちのデータとコードは、https://github.com/swarnaHub/ConjNLIで公開されています。
関連論文リスト
- Reasoning over Description Logic-based Contexts with Transformers [3.17062385457524]
我々は、記述論理知識ベースから生成される合成自然言語質問回答データセットを構築した。
知識ベースの生成には、表現力のある言語$mathcalALCQ$を使用します。
DELTA$_M$のDeBERTaモデルの性能は、推論深度が大きくなると影響を受けなくなり、文の長さが大きくなると全く影響しないことを示す。
論文 参考訳(メタデータ) (2023-11-15T13:23:24Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Language Models Can Learn Exceptions to Syntactic Rules [22.810889064523167]
人工ニューラルネットワークは、新しい文脈に生産的に一般化できることを示す。
また、能動対受動音声における動詞の相対的受容性は、それらの音声における動詞の相対的受容頻度と正の相関性を示す。
論文 参考訳(メタデータ) (2023-06-09T15:35:11Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans
vs. BERT [64.40111510974957]
英語における主語数合意に意味が干渉するかどうかを検証する。
意味的によく形づくられた、意味のないアイテムを生成します。
BERTと人間はどちらも、セマンティックな操作に敏感である。
論文 参考訳(メタデータ) (2022-09-21T17:57:23Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - Are Natural Language Inference Models IMPPRESsive? Learning IMPlicature
and PRESupposition [17.642255516887968]
自然言語推論(NLI)は、自然言語理解にとってますます重要なタスクである。
NLIモデルが実用的推論を行う能力はまだ検討されていない。
BERT, InferSent, BOW NLIモデルがMultiNLIで訓練された場合, 実用的推論を学習するかを評価する。
論文 参考訳(メタデータ) (2020-04-07T01:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。