論文の概要: He Thinks He Knows Better than the Doctors: BERT for Event Factuality
Fails on Pragmatics
- arxiv url: http://arxiv.org/abs/2107.00807v1
- Date: Fri, 2 Jul 2021 02:47:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-06 02:19:28.510173
- Title: He Thinks He Knows Better than the Doctors: BERT for Event Factuality
Fails on Pragmatics
- Title(参考訳): 彼は医師より良いことを知っている: BERTは実用性に影響を及ぼす
- Authors: Nanjiang Jiang and Marie-Catherine de Marneffe
- Abstract要約: 既存のいくつかの英文データセットにおいて,BERTが事実性を予測するのにどの程度効果があるかを検討する。
BERTは、ほとんどのデータセットで強力なパフォーマンスを得るが、特定の事実ラベルと相関する一般的な表面パターンを利用する。
- 参考スコア(独自算出の注目度): 7.732380218773259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate how well BERT performs on predicting factuality in several
existing English datasets, encompassing various linguistic constructions.
Although BERT obtains a strong performance on most datasets, it does so by
exploiting common surface patterns that correlate with certain factuality
labels, and it fails on instances where pragmatic reasoning is necessary.
Contrary to what the high performance suggests, we are still far from having a
robust system for factuality prediction.
- Abstract(参考訳): 既存のいくつかの英語データセットにおいて,BERTが実存性を予測し,様々な言語構造を包含する方法について検討する。
BERTは、ほとんどのデータセットで強力なパフォーマンスを得るが、特定の事実ラベルと相関する一般的な表面パターンを利用することで、実用的推論が必要なインスタンスではフェールする。
ハイパフォーマンスが示唆するものとは対照的に、事実性予測のための堅牢なシステムには程遠いのです。
関連論文リスト
- Towards preserving word order importance through Forced Invalidation [80.33036864442182]
事前学習された言語モデルは単語の順序に敏感であることを示す。
我々は,単語順序の重要性を維持するために強制的無効化を提案する。
実験の結果,強制的無効化は単語順に対するモデルの感度を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-04-11T13:42:10Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - How Does Adversarial Fine-Tuning Benefit BERT? [16.57274211257757]
敵の訓練は、機械学習における敵の攻撃を防御する最も信頼できる方法の1つである。
逆向きに微調整されたモデルはBERTの言語モデリング行動に忠実であり、語順に敏感であることを示す。
分析の結果,バニラ微調整は文表現を単純化し,単語のラベル表示に重きを置いていることがわかった。
論文 参考訳(メタデータ) (2021-08-31T03:39:06Z) - ConSERT: A Contrastive Framework for Self-Supervised Sentence
Representation Transfer [19.643512923368743]
本稿では,自己監督型文表現伝達のためのコントラストフレームワークであるConSERTを提案する。
ラベルのないテキストを利用することで、ConSERTはBERT由来の文表現の崩壊問題を解消する。
STSデータセットの実験では、ConSERTは以前の最先端よりも8%の相対的な改善を達成している。
論文 参考訳(メタデータ) (2021-05-25T08:15:01Z) - Improving BERT with Syntax-aware Local Attention [14.70545694771721]
そこで本研究では,構文構造における距離を対象とする局所的注意度(局所注意度)を提案する。
文分類やシーケンスラベリングタスクなど,シングルセンテンスベンチマークの各種実験を行った。
我々のモデルは、構文的に関連のある単語により注意を払って、より良いパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-12-30T13:29:58Z) - On the Sentence Embeddings from Pre-trained Language Models [78.45172445684126]
本稿では,BERT埋め込みにおける意味情報が完全に活用されていないことを論じる。
BERTは常に文の非滑らかな異方性意味空間を誘導し,その意味的類似性を損なう。
本稿では,非教師対象で学習した正規化フローにより,異方性文の埋め込み分布を滑らかで等方性ガウス分布に変換することを提案する。
論文 参考訳(メタデータ) (2020-11-02T13:14:57Z) - GiBERT: Introducing Linguistic Knowledge into BERT through a Lightweight
Gated Injection Method [29.352569563032056]
本稿では,言語知識を単語埋め込みの形で,事前学習したBERTに明示的に注入する手法を提案する。
依存性ベースと逆適合の埋め込みを注入する場合、複数のセマンティックな類似性データセットのパフォーマンス改善は、そのような情報が有益であり、現在元のモデルから欠落していることを示している。
論文 参考訳(メタデータ) (2020-10-23T17:00:26Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z) - A Study of Cross-Lingual Ability and Language-specific Information in
Multilingual BERT [60.9051207862378]
Multilingual BERTは、言語間転送タスクで驚くほどうまく機能します。
データサイズとコンテキストウィンドウサイズは、転送可能性にとって重要な要素です。
多言語BERTの言語間能力を改善するために、計算的に安価だが効果的なアプローチがある。
論文 参考訳(メタデータ) (2020-04-20T11:13:16Z) - Adv-BERT: BERT is not robust on misspellings! Generating nature
adversarial samples on BERT [95.88293021131035]
しかし、悪意のある敵のインスタンスがしばしば存在するのではなく、テクトナチュラルなシナリオでモデルがどのように機能するかは定かではない。
この研究は、NLPにおける最先端のTransformerスタイルモデルであるBERTの、ノイズの多いデータを扱うための頑健さを体系的に探求する。
論文 参考訳(メタデータ) (2020-02-27T22:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。