論文の概要: Can Edge Probing Tasks Reveal Linguistic Knowledge in QA Models?
- arxiv url: http://arxiv.org/abs/2109.07102v1
- Date: Wed, 15 Sep 2021 06:16:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 15:07:01.336156
- Title: Can Edge Probing Tasks Reveal Linguistic Knowledge in QA Models?
- Title(参考訳): エッジ探索タスクはqaモデルに言語知識を明らかにすることができるか?
- Authors: Sagnik Ray Choudhury, Nikita Bhutani, Isabelle Augenstein
- Abstract要約: エッジプローブテストはトークン表現を用いてスパンの文法的性質を予測する。
ほとんどのNLPアプリケーションは微調整のLMを使用する。
EPタスクデータセットの批判的分析により、EPモデルが予測を行うために急激な相関に依存する可能性があることが明らかになった。
- 参考スコア(独自算出の注目度): 22.89462198734587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There have been many efforts to try to understand what grammatical knowledge
(e.g., ability to understand the part of speech of a token) is encoded in large
pre-trained language models (LM). This is done through `Edge Probing' (EP)
tests: simple ML models that predict the grammatical properties of a span
(whether it has a particular part of speech) using \textit{only} the LM's token
representations. However, most NLP applications use \finetuned\ LMs. Here, we
ask: if a LM is \finetuned, does the encoding of linguistic information in it
change, as measured by EP tests? Conducting experiments on multiple
question-answering (QA) datasets, we answer that question negatively: the EP
test results do not change significantly when the fine-tuned QA model performs
well or in adversarial situations where the model is forced to learn wrong
correlations. However, a critical analysis of the EP task datasets reveals that
EP models may rely on spurious correlations to make predictions. This indicates
even if \finetuning\ changes the encoding of such knowledge, the EP tests might
fail to measure it.
- Abstract(参考訳): 文法的知識(例えば、トークンのスピーチの一部を理解する能力)が大規模な事前学習言語モデル(LM)にエンコードされているかを理解するために、多くの努力がなされている。
これは `edge probing' (ep) テストによって行われる: lm のトークン表現である \textit{only} を使ってスパンの文法的特性を予測する単純な ml モデル。
しかし、ほとんどのNLPアプリケーションは \finetuned\ LMs を使っている。
ここでは、 LM が \finetuned である場合、EP テストによって測定された言語情報の符号化は変更されるか?
複数の質問応答(QA)データセットで実験を行うことで、EPテストの結果は、微調整されたQAモデルが正常に動作した場合や、モデルが間違った相関関係を学習せざるを得ない場合に大きく変化しない。
しかし、EPタスクデータセットの批判的分析により、EPモデルは予測を行うために急激な相関に依存する可能性があることが明らかになった。
これは、もし \finetuning\がそのような知識のエンコーディングを変更したとしても、EPテストはそれを測定できないかもしれないことを示している。
関連論文リスト
- Understanding and Mitigating Tokenization Bias in Language Models [6.418593476658017]
State-of-the-art言語モデルは自己回帰型であり、トークンとして知られるサブワード単位で動作する。
一般的な符号化方式は、より多くのトレーニングやデータで緩和できないサンプリングバイアスを引き起こすことを示す。
トークン化データに基づいて訓練された任意の言語モデルからバイアスのない推定値を得るための新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-24T17:38:02Z) - Implications of Annotation Artifacts in Edge Probing Test Datasets [3.1111196835684685]
一般的に使用されているエッジ探索テストデータセットには,暗記を含むさまざまなバイアスがあることが示されている。
これらのバイアスが除去されると、LLMエンコーダはランダムなバイアスと大きな違いを示す。
論文 参考訳(メタデータ) (2023-10-20T23:19:35Z) - Test-Time Self-Adaptive Small Language Models for Question Answering [63.91013329169796]
ラベルのないテストデータのみを用いて、より小さな自己適応型LMの能力を示し、検討する。
提案した自己適応戦略は,ベンチマークQAデータセットの大幅な性能向上を示す。
論文 参考訳(メタデータ) (2023-10-20T06:49:32Z) - Explaining Emergent In-Context Learning as Kernel Regression [61.57151500616111]
大規模言語モデル(LLM)は、伝達学習のパラダイムシフトを開始した。
本稿では,トランスフォーマーに基づく言語モデルが事前学習後に文脈内学習を達成できる理由について検討する。
ICL中、LLMの注意と隠れた特徴は、カーネル回帰の挙動と一致していることがわかった。
論文 参考訳(メタデータ) (2023-05-22T06:45:02Z) - Why do Nearest Neighbor Language Models Work? [93.71050438413121]
言語モデル(LM)は、すでに見られる文脈の表現を逐次計算することで、テキストの確率を計算する。
Retrieval-augmented LMは、大規模なデータストアから取得した情報にアクセスすることによって、標準的なニューラルLMよりも改善されている。
論文 参考訳(メタデータ) (2023-01-07T11:12:36Z) - Memory Augmented Lookup Dictionary based Language Modeling for Automatic
Speech Recognition [20.926163659469587]
LMのための新しいメモリ拡張ルックアップ辞書に基づくトランスフォーマーアーキテクチャを提案する。
新しく導入されたルックアップ辞書は、トレーニングセットにリッチなコンテキスト情報を組み込んでおり、ロングテールトークンを正確に予測するのに不可欠である。
提案手法は,ワード/文字誤り率とテールトークン誤り率の両方に大きな差で,ベースライントランスフォーマーLMより優れていることを示す。
論文 参考訳(メタデータ) (2022-12-30T22:26:57Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Masked Language Modeling and the Distributional Hypothesis: Order Word
Matters Pre-training for Little [74.49773960145681]
マスク言語モデル(MLM)トレーニングの印象的なパフォーマンスの可能な説明は、そのようなモデルがNLPパイプラインで広く普及している構文構造を表現することを学びました。
本稿では,先行訓練がダウンストリームタスクでほぼ完全に成功する理由として,高次単語共起統計をモデル化できることを挙げる。
以上の結果から,純粋分布情報は,事前学習の成功を主に説明し,深い言語知識を必要とする難易度評価データセットのキュレーションの重要性を強調する。
論文 参考訳(メタデータ) (2021-04-14T06:30:36Z) - How Can We Know When Language Models Know? On the Calibration of
Language Models for Question Answering [80.82194311274694]
言語モデルがいつ、自信を持って、特定のクエリに対する答えを知っているか、どのように知ることができるか?
我々は,T5,BART,GPT-2の3つの強力な生成モデルを検討した。
次に、そのようなモデルの校正方法を検討し、その信頼性スコアを正しさの確率と相関させる。
論文 参考訳(メタデータ) (2020-12-02T03:53:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。