論文の概要: Are Natural Language Inference Models IMPPRESsive? Learning IMPlicature
and PRESupposition
- arxiv url: http://arxiv.org/abs/2004.03066v2
- Date: Tue, 14 Jul 2020 01:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 23:39:34.215652
- Title: Are Natural Language Inference Models IMPPRESsive? Learning IMPlicature
and PRESupposition
- Title(参考訳): 自然言語推論モデルはIMPPRESsiveか?
学習のインプリケーションと前提
- Authors: Paloma Jeretic, Alex Warstadt, Suvrat Bhooshan, Adina Williams
- Abstract要約: 自然言語推論(NLI)は、自然言語理解にとってますます重要なタスクである。
NLIモデルが実用的推論を行う能力はまだ検討されていない。
BERT, InferSent, BOW NLIモデルがMultiNLIで訓練された場合, 実用的推論を学習するかを評価する。
- 参考スコア(独自算出の注目度): 17.642255516887968
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language inference (NLI) is an increasingly important task for
natural language understanding, which requires one to infer whether a sentence
entails another. However, the ability of NLI models to make pragmatic
inferences remains understudied. We create an IMPlicature and PRESupposition
diagnostic dataset (IMPPRES), consisting of >25k semiautomatically generated
sentence pairs illustrating well-studied pragmatic inference types. We use
IMPPRES to evaluate whether BERT, InferSent, and BOW NLI models trained on
MultiNLI (Williams et al., 2018) learn to make pragmatic inferences. Although
MultiNLI appears to contain very few pairs illustrating these inference types,
we find that BERT learns to draw pragmatic inferences. It reliably treats
scalar implicatures triggered by "some" as entailments. For some presupposition
triggers like "only", BERT reliably recognizes the presupposition as an
entailment, even when the trigger is embedded under an entailment canceling
operator like negation. BOW and InferSent show weaker evidence of pragmatic
reasoning. We conclude that NLI training encourages models to learn some, but
not all, pragmatic inferences.
- Abstract(参考訳): 自然言語推論(NLI)は、自然言語理解にとってますます重要なタスクであり、ある文が他の文に関係しているかどうかを推測する必要がある。
しかし、nliモデルが実用的推論を行う能力は未定である。
そこで我々は,約25kの半自動生成文対からなるIMPPRES(IMPlicature and PreSupposition diagnosis dataset)を作成した。
我々は、multiNLI(Williams et al., 2018)でトレーニングされたBERT、InferSent、BOW NLIモデルが実用的推論を学習するかどうかを評価するためにIMPPRESを使用する。
multinli はこれらの推論型を示すペアをほとんど含まないように見えるが、bert が実用的推論を描くことを学ぶ。
によって引き起こされるスカラーの模倣を包含物として確実に扱う。
のみ"のような前提条件のトリガに対して、BERTは、否定のような追加条件のキャンセル演算子の下にトリガーが埋め込まれた場合でも、前提条件をエンセレーションとして確実に認識する。
BOWとInferSentは、実用的な推論の弱い証拠を示している。
nliトレーニングはモデルに実用的推論を学ぶことを奨励するものだと結論付けています。
関連論文リスト
- Deep Natural Language Feature Learning for Interpretable Prediction [1.6114012813668932]
本稿では,メインの複雑なタスクを仲介しやすいサブタスクの集合に分解する手法を提案する。
本手法では,これらの質問に対する回答からなるベクトルで各例を表現できる。
我々は,学生のオープンエンド数学試験に対する回答の不整合性の検出と,気候変動と農業学に関する科学的論文の体系的な文献レビューのための要約のスクリーニングという,2つのまったく異なるタスクにこの手法を適用した。
論文 参考訳(メタデータ) (2023-11-09T21:43:27Z) - All Roads Lead to Rome? Exploring the Invariance of Transformers'
Representations [69.3461199976959]
本稿では, ビジェクション仮説を学習するために, 非可逆ニューラルネットワーク BERT-INN に基づくモデルを提案する。
BERT-INNの利点は理論上も広範な実験を通じても明らかである。
論文 参考訳(メタデータ) (2023-05-23T22:30:43Z) - Beyond Distributional Hypothesis: Let Language Models Learn Meaning-Text
Correspondence [45.9949173746044]
大規模事前学習言語モデル (PLM) が論理否定特性 (LNP) を満たさないことを示す。
そこで本研究では,意味テキスト対応を直接学習するための新しい中間訓練課題である「意味マッチング」を提案する。
このタスクにより、PLMは語彙意味情報を学習することができる。
論文 参考訳(メタデータ) (2022-05-08T08:37:36Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - How Does Adversarial Fine-Tuning Benefit BERT? [16.57274211257757]
敵の訓練は、機械学習における敵の攻撃を防御する最も信頼できる方法の1つである。
逆向きに微調整されたモデルはBERTの言語モデリング行動に忠実であり、語順に敏感であることを示す。
分析の結果,バニラ微調整は文表現を単純化し,単語のラベル表示に重きを置いていることがわかった。
論文 参考訳(メタデータ) (2021-08-31T03:39:06Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - On the Sentence Embeddings from Pre-trained Language Models [78.45172445684126]
本稿では,BERT埋め込みにおける意味情報が完全に活用されていないことを論じる。
BERTは常に文の非滑らかな異方性意味空間を誘導し,その意味的類似性を損なう。
本稿では,非教師対象で学習した正規化フローにより,異方性文の埋め込み分布を滑らかで等方性ガウス分布に変換することを提案する。
論文 参考訳(メタデータ) (2020-11-02T13:14:57Z) - GiBERT: Introducing Linguistic Knowledge into BERT through a Lightweight
Gated Injection Method [29.352569563032056]
本稿では,言語知識を単語埋め込みの形で,事前学習したBERTに明示的に注入する手法を提案する。
依存性ベースと逆適合の埋め込みを注入する場合、複数のセマンティックな類似性データセットのパフォーマンス改善は、そのような情報が有益であり、現在元のモデルから欠落していることを示している。
論文 参考訳(メタデータ) (2020-10-23T17:00:26Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。