論文の概要: An Analysis of the Utility of Explicit Negative Examples to Improve the
Syntactic Abilities of Neural Language Models
- arxiv url: http://arxiv.org/abs/2004.02451v3
- Date: Sat, 6 Jun 2020 07:41:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:37:15.960147
- Title: An Analysis of the Utility of Explicit Negative Examples to Improve the
Syntactic Abilities of Neural Language Models
- Title(参考訳): ニューラルネットワークモデルの構文能力向上のための明示的否定例の有用性の分析
- Authors: Hiroshi Noji, Hiroya Takamura
- Abstract要約: ニューラルネットワークモデルのトレーニングにおいて、明示的なネガティブな例の有用性について検討する。
直接学習の合図があっても、モデルはオブジェクト相対的な節をまたいだ合意の解決に苦しむ。
- 参考スコア(独自算出の注目度): 32.183409062294466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the utilities of explicit negative examples in training neural
language models. Negative examples here are incorrect words in a sentence, such
as "barks" in "*The dogs barks". Neural language models are commonly trained
only on positive examples, a set of sentences in the training data, but recent
studies suggest that the models trained in this way are not capable of robustly
handling complex syntactic constructions, such as long-distance agreement. In
this paper, using English data, we first demonstrate that appropriately using
negative examples about particular constructions (e.g., subject-verb agreement)
will boost the model's robustness on them, with a negligible loss of
perplexity. The key to our success is an additional margin loss between the
log-likelihoods of a correct word and an incorrect word. We then provide a
detailed analysis of the trained models. One of our findings is the difficulty
of object-relative clauses for RNNs. We find that even with our direct learning
signals the models still suffer from resolving agreement across an
object-relative clause. Augmentation of training sentences involving the
constructions somewhat helps, but the accuracy still does not reach the level
of subject-relative clauses. Although not directly cognitively appealing, our
method can be a tool to analyze the true architectural limitation of neural
models on challenging linguistic constructions.
- Abstract(参考訳): 我々は、ニューラルネットワークモデルのトレーニングにおける明示的な否定的な例の有用性を探求する。
否定的な例は、"*the dog barks"の"barks"のように、文中の不正確な単語である。
ニューラルネットワークモデルは通常、トレーニングデータ中の文の集合であるポジティブな例のみに基づいて訓練されるが、最近の研究では、この方法で訓練されたモデルは、長距離合意のような複雑な構文構造を堅牢に処理できないことを示唆している。
本稿では、まず、英語データを用いて、特定の構成に関する負の例(例えば、主観的な合意)を適切に使用することで、モデルの強靭性が向上し、難易度が無視できることを示す。
私たちの成功の鍵は、正しい単語のログライクな部分と間違った単語の間の余分な損失です。
次に、トレーニングされたモデルの詳細な分析を行う。
我々の発見の1つは、RNNに対するオブジェクト指向節の難しさである。
直接的な学習信号であっても、モデルがオブジェクト関係節間の合意の解決に苦しむことが分かりました。
構成を含む訓練文の増補は幾らか役立つが、精度は依然として主語関係節のレベルに達していない。
本手法は, 直接的に認知に訴えるものではないが, ニューラルネットワークの真のアーキテクチャ的限界を, 難解な言語構造に基づいて解析するためのツールである。
関連論文リスト
- ALERT: Adapting Language Models to Reasoning Tasks [43.8679673685468]
ALERTは、言語モデルの推論能力を評価するためのベンチマークと分析スイートである。
ALERTは、あらゆる言語モデルに対して、きめ細かい推論スキルを評価するためのテストベッドを提供する。
言語モデルは、事前学習状態と比較して、微調整段階の推論スキルを学習する。
論文 参考訳(メタデータ) (2022-12-16T05:15:41Z) - Discovering Latent Knowledge in Language Models Without Supervision [72.95136739040676]
既存の言語モデルをトレーニングするテクニックは、真実と正しく一致していない可能性がある。
本稿では,言語モデルの内部アクティベーション内部の潜伏知識を,純粋に教師なしの方法で直接見つけることを提案する。
本手法は, 教師なし, モデル出力がないにもかかわらず, 大規模言語モデルで表される多様な知識を復元できることを示す。
論文 参考訳(メタデータ) (2022-12-07T18:17:56Z) - On The Ingredients of an Effective Zero-shot Semantic Parser [95.01623036661468]
我々は、標準発話とプログラムの訓練例を文法から言い換えて、ゼロショット学習を分析する。
改良された文法,より強力なパラフレーズ,効率的な学習手法を用いて,これらのギャップを埋めることを提案する。
我々のモデルはラベル付きデータゼロの2つの意味解析ベンチマーク(Scholar, Geo)で高い性能を達成する。
論文 参考訳(メタデータ) (2021-10-15T21:41:16Z) - Understanding by Understanding Not: Modeling Negation in Language Models [81.21351681735973]
否定は自然言語の中核構造である。
本稿では,否定された総称文に基づく不一致目的を用いて,言語モデリング目標の強化を提案する。
否定されたLAMAデータセットの平均top1エラー率を4%に削減します。
論文 参考訳(メタデータ) (2021-05-07T21:58:35Z) - Detecting and Exorcising Statistical Demons from Language Models with
Anti-Models of Negative Data [13.392212395386933]
モデルファミリー内では、パラメータの数、訓練エポック数、データセットのサイズが増加するため、モデルが負のn-gramデータに一般化する能力がある。
本稿では,このような望ましくない信号を正のデータから自動的に学習した負のデータ分布で減衰させる帰納バイアスの形式を提案する。
論文 参考訳(メタデータ) (2020-10-22T16:45:32Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Recurrent Neural Network Language Models Always Learn English-Like
Relative Clause Attachment [17.995905582226463]
英語とスペイン語のモデル性能を比較し,RNN LMにおける非言語的バイアスが英語の構文構造と有利に重なることを示す。
英語モデルは人間に似た構文的嗜好を習得しているように見えるが、スペイン語で訓練されたモデルは、同等の人間的な嗜好を取得できない。
論文 参考訳(メタデータ) (2020-05-01T01:21:47Z) - Multi-Step Inference for Reasoning Over Paragraphs [95.91527524872832]
テキスト上の複雑な推論には、自由形式の述語と論理的な連結体を理解し、連鎖する必要がある。
本稿では,ニューラルネットワークを連想させる構成モデルを提案する。
論文 参考訳(メタデータ) (2020-04-06T21:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。