論文の概要: Using Integrated Gradients to explain Linguistic Acceptability learnt by
BERT
- arxiv url: http://arxiv.org/abs/2106.07349v1
- Date: Tue, 1 Jun 2021 15:17:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-27 12:55:21.640803
- Title: Using Integrated Gradients to explain Linguistic Acceptability learnt by
BERT
- Title(参考訳): 統合グラディエントを用いたBERTが学習した言語学的受容性
- Authors: Anmol Nayak, Hari Prasad Timmapathini
- Abstract要約: BERTは、そのアーキテクチャにおけるマルチヘッド自己認識メカニズムを活用することで、言語理解のブレークスルーとなっている。
この研究は、BERTが学習した言語アクセプティビリティの基準を説明するために、Layer Integrated Gradients Attribution Scores (LIGAS)を利用した最初のものである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: BERT has been a breakthrough in language understanding by leveraging the
multi-head self-attention mechanism in its architecture. To the best of our
knowledge this work is the first to leverage Layer Integrated Gradients
Attribution Scores (LIGAS) to explain the Linguistic Acceptability criteria
that are learnt by BERT on the Corpus of Linguistic Acceptability (CoLA)
benchmark dataset. Our experiments on 5 different categories of sentences lead
to the following interesting findings: 1) LIGAS for Linguistically Acceptable
(LA) sentences are significantly smaller in comparison to Linguistically
Unacceptable (LUA) sentences, 2) There are specific subtrees of the
Constituency Parse Tree (CPT) for LA and LUA sentences which contribute larger
LIGAS, 3) Across the different categories of sentences we observed around 88%
to 100% of the Correctly classified sentences had positive LIGAS, indicating a
strong positive relationship to the prediction confidence of the model, and 4)
Around 57% of the Misclassified sentences had positive LIGAS, which we believe
can become correctly classified sentences if the LIGAS are parameterized in the
loss function of the model.
- Abstract(参考訳): BERTは、そのアーキテクチャにおけるマルチヘッド自己認識メカニズムを活用することで、言語理解のブレークスルーとなっている。
我々の知る限りでは、この研究は初めてLayer Integrated Gradients Attribution Scores (LIGAS)を活用して、BERTがCorp of Linguistic Acceptability (CoLA)ベンチマークデータセットで学んだ言語受容性基準を説明する。
Our experiments on 5 different categories of sentences lead to the following interesting findings: 1) LIGAS for Linguistically Acceptable (LA) sentences are significantly smaller in comparison to Linguistically Unacceptable (LUA) sentences, 2) There are specific subtrees of the Constituency Parse Tree (CPT) for LA and LUA sentences which contribute larger LIGAS, 3) Across the different categories of sentences we observed around 88% to 100% of the Correctly classified sentences had positive LIGAS, indicating a strong positive relationship to the prediction confidence of the model, and 4) Around 57% of the Misclassified sentences had positive LIGAS, which we believe can become correctly classified sentences if the LIGAS are parameterized in the loss function of the model.
関連論文リスト
- Unraveling the Dominance of Large Language Models Over Transformer Models for Bangla Natural Language Inference: A Comprehensive Study [0.0]
自然言語推論(NLI)は自然言語処理(NLP)の基盤である
本研究では,ベンガル語のような低リソース言語におけるLLM(Large Language Models)の評価について検討した。
論文 参考訳(メタデータ) (2024-05-05T13:57:05Z) - Prosody in Cascade and Direct Speech-to-Text Translation: a case study
on Korean Wh-Phrases [79.07111754406841]
本研究は,韻律が重要な役割を果たす発話を明瞭にするための直接S2TTシステムの能力を評価するために,コントラスト評価を用いることを提案する。
本結果は,カスケード翻訳モデルよりも直接翻訳システムの価値を明確に示すものである。
論文 参考訳(メタデータ) (2024-02-01T14:46:35Z) - Native Language Identification with Large Language Models [60.80452362519818]
我々はGPTモデルがNLI分類に熟練していることを示し、GPT-4は0ショット設定でベンチマーク11テストセットで91.7%の新たなパフォーマンス記録を樹立した。
また、従来の完全教師付き設定とは異なり、LLMは既知のクラスに制限されずにNLIを実行できることを示す。
論文 参考訳(メタデータ) (2023-12-13T00:52:15Z) - Exposing Cross-Lingual Lexical Knowledge from Multilingual Sentence
Encoders [85.80950708769923]
本稿では,多言語言語モデルを用いて,それらのパラメータに格納された言語間語彙の知識量を探索し,元の多言語LMと比較する。
また、この知識を付加的に微調整した多言語モデルにより公開する新しい手法も考案した。
標準ベンチマークの大幅な向上を報告します。
論文 参考訳(メタデータ) (2022-04-30T13:23:16Z) - Label Anchored Contrastive Learning for Language Understanding [17.28721753405111]
言語理解のための新しいラベル付きコントラスト学習手法(LaCon)を提案する。
当社のアプローチでは、特別なネットワークアーキテクチャや追加のデータ拡張は必要ありません。
LaConはGLUEとCLUEベンチマークの一般的なデータセットを最大4.1%改善する。
論文 参考訳(メタデータ) (2022-04-26T15:33:01Z) - GL-CLeF: A Global-Local Contrastive Learning Framework for Cross-lingual
Spoken Language Understanding [74.39024160277809]
この問題に対処するために,グローバルローカルコントラスト学習フレームワーク(GL-CLeF)を提案する。
具体的には、比較学習を採用し、二言語辞書を活用して、同じ発話の多言語ビューを構築する。
GL-CLeFは最高のパフォーマンスを達成し、言語間の類似した文の表現をうまくプルする。
論文 参考訳(メタデータ) (2022-04-18T13:56:58Z) - VALUE: Understanding Dialect Disparity in NLU [50.35526025326337]
アフリカ・アメリカン・バーナクラ・イングリッシュ(AAVE)の11つの特徴に関するルールを構築した。
言語的アクセプタビリティ判断により,各特徴変換の検証を行うために,流線型AAVE話者を募集する。
実験により、これらの新しい方言の特徴がモデル性能の低下につながることが示された。
論文 参考訳(メタデータ) (2022-04-06T18:30:56Z) - Pair-Level Supervised Contrastive Learning for Natural Language
Inference [11.858875850000457]
Pair-level Supervised Contrastive Learning approach (PairSCL)を提案する。
対照的な学習目的は、1つのクラスでそれらをまとめて、他のクラスでペアを分割することで、文対の様々なクラスを区別するように設計されている。
NLIの2つの公開データセット上でPairSCLの評価を行い、PairSCLの精度は平均2.1%向上した。
論文 参考訳(メタデータ) (2022-01-26T13:34:52Z) - On the Language-specificity of Multilingual BERT and the Impact of
Fine-tuning [7.493779672689531]
multilingual BERT (mBERT) が獲得した知識は、言語固有のものと言語ニュートラルな2つのコンポーネントを持っている。
本稿では,2つのタスクの微調整の文脈において,それらの関係を解析する。
論文 参考訳(メタデータ) (2021-09-14T19:28:31Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。