論文の概要: Stress Test for BERT and Deep Models: Predicting Words from Italian
Poetry
- arxiv url: http://arxiv.org/abs/2302.09303v1
- Date: Sat, 21 Jan 2023 09:44:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 14:44:41.757871
- Title: Stress Test for BERT and Deep Models: Predicting Words from Italian
Poetry
- Title(参考訳): BERTとDeep Modelのストレステスト:イタリアの詩からの単語予測
- Authors: Rodolfo Delmonte, Nicol\`o Busetto
- Abstract要約: 本稿では,詩文領域から抽出した多数のイタリア語文について,BERTを用いて一連の実験を行った。
これらの実験は、言語学的複雑さの3つのレベルにおいて予測可能性の非常に高いレベルの難しさの仮説に基づいて構成される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper we present a set of experiments carried out with BERT on a
number of Italian sentences taken from poetry domain. The experiments are
organized on the hypothesis of a very high level of difficulty in
predictability at the three levels of linguistic complexity that we intend to
monitor: lexical, syntactic and semantic level. To test this hypothesis we ran
the Italian version of BERT with 80 sentences for a total of 900 tokens mostly
extracted from Italian poetry of the first half of last century. Then we
alternated canonical and noncanonical versions of the same sentence before
processing them with the same DL model. We used then sentences from the
newswire domain containing similar syntactic structures. The results show that
the DL model is highly sensitive to presence of noncanonical structures.
However, DLs are also very sensitive to word frequency and to local non literal
meaning compositional effect. This is also apparent by the preference for
predicting function vs content words, collocates vs infrequent word phrases. In
the paper, we focused our attention on the use of subword units done by BERT
for out of vocabulary words.
- Abstract(参考訳): 本稿では,詩文領域から抽出した多数のイタリア語文について,BERTを用いて一連の実験を行った。
これらの実験は、語彙、構文、意味の3つのレベルにおいて、予測可能性の非常に高いレベルの難しさの仮説に基づいて構成される。
この仮説を検証するために、前世紀前半のイタリア詩から抽出された合計900枚のトークンを80文でイタリア語版bertで実行しました。
そして、同じdlモデルで処理する前に、同じ文の正準および非正準バージョンを交互に処理した。
類似した構文構造を含むnewswireドメインの文を使用した。
その結果,dlモデルは非カノニカル構造の存在に非常に敏感であることがわかった。
しかし、DLは単語頻度や局所的非リテラルな構成効果にも非常に敏感である。
これは、関数対内容語、コロケーション対頻繁な単語句の予測が好まれることからも明らかである。
本稿では,BERTによる語彙外単語のサブワード単位の使用に焦点をあてた。
関連論文リスト
- Fine-Tuning Language Models for Scientific Writing Support [1.7856410179559385]
我々は、文章が科学的な文であるか、どの部分に属しているのかを判断する科学的著者を支援し、文を改善するためのパラフレーズを提案する。
我々は、A*、A、B、Cランキングで査読され、出版されたarXiv論文から抽出された文に基づいて、様々な大きな言語モデルを訓練する。
文脈を用いることで文の分類が向上し、最大90%のF1スコアが達成されることを示す。
論文 参考訳(メタデータ) (2023-06-19T14:34:49Z) - Subject Verb Agreement Error Patterns in Meaningless Sentences: Humans
vs. BERT [64.40111510974957]
英語における主語数合意に意味が干渉するかどうかを検証する。
意味的によく形づくられた、意味のないアイテムを生成します。
BERTと人間はどちらも、セマンティックな操作に敏感である。
論文 参考訳(メタデータ) (2022-09-21T17:57:23Z) - Abstraction not Memory: BERT and the English Article System [1.1064955465386002]
我々は,3つの選択肢(a/an,the,0)として設定された記事予測タスクにおいて,ネイティブ英語話者と事前学習モデルの性能を比較した。
BERTによる実験では、BERTは全ての記事において、このタスクにおいて人間よりも優れています。
論文 参考訳(メタデータ) (2022-06-08T22:36:54Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - When classifying grammatical role, BERT doesn't care about word order...
except when it matters [9.553484840008583]
単語の順序は、意味論的に非原型的な位置における単語の後半層表現を定義するのに不可欠である。
実験では,単語順序が文脈化過程に与える影響を分離した。
論文 参考訳(メタデータ) (2022-03-11T19:00:15Z) - Pretraining without Wordpieces: Learning Over a Vocabulary of Millions
of Words [50.11559460111882]
本稿では,単語ではなく単語の語彙上で,BERTスタイルの事前学習モデルを開発する可能性について検討する。
その結果,標準的なワードピースベースのBERTと比較して,WordBERTはクローゼテストや機械読解の大幅な改善を実現していることがわかった。
パイプラインは言語に依存しないので、中国語でWordBERTを訓練し、5つの自然言語理解データセットで大きな利益を得る。
論文 参考訳(メタデータ) (2022-02-24T15:15:48Z) - Contextualized Semantic Distance between Highly Overlapped Texts [85.1541170468617]
テキスト編集や意味的類似性評価といった自然言語処理タスクにおいて、ペア化されたテキストに重複が頻繁に発生する。
本稿では,マスク・アンド・予測戦略を用いてこの問題に対処することを目的とする。
本稿では,最も長い単語列の単語を隣接する単語とみなし,その位置の分布を予測するためにマスク付き言語モデリング(MLM)を用いる。
セマンティックテキスト類似性の実験では、NDDは様々な意味的差異、特に高い重なり合うペアテキストに対してより敏感であることが示されている。
論文 参考訳(メタデータ) (2021-10-04T03:59:15Z) - Investigating Novel Verb Learning in BERT: Selectional Preference
Classes and Alternation-Based Syntactic Generalization [22.112988757841467]
本稿では,英語動詞の2つの側面に対してBERTの少数ショット学習能力をテストするために,新しい単語学習パラダイムをデプロイする。
BERT は,新しい単語を1つないし2つの例で微調整した後,頑健な文法的一般化を行う。
論文 参考訳(メタデータ) (2020-11-04T17:17:49Z) - On the Sentence Embeddings from Pre-trained Language Models [78.45172445684126]
本稿では,BERT埋め込みにおける意味情報が完全に活用されていないことを論じる。
BERTは常に文の非滑らかな異方性意味空間を誘導し,その意味的類似性を損なう。
本稿では,非教師対象で学習した正規化フローにより,異方性文の埋め込み分布を滑らかで等方性ガウス分布に変換することを提案する。
論文 参考訳(メタデータ) (2020-11-02T13:14:57Z) - Speakers Fill Lexical Semantic Gaps with Context [65.08205006886591]
我々は単語の語彙的あいまいさを意味のエントロピーとして運用する。
単語のあいまいさの推定値と,WordNetにおける単語の同義語数との間には,有意な相関関係が認められた。
これは、あいまいさの存在下では、話者が文脈をより情報的にすることで補うことを示唆している。
論文 参考訳(メタデータ) (2020-10-05T17:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。