論文の概要: Are Transformers a Modern Version of ELIZA? Observations on French
Object Verb Agreement
- arxiv url: http://arxiv.org/abs/2109.10133v1
- Date: Tue, 21 Sep 2021 12:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:23:40.659976
- Title: Are Transformers a Modern Version of ELIZA? Observations on French
Object Verb Agreement
- Title(参考訳): トランスフォーマーはelizaの現代的なバージョンか?
フレンチ・オブジェクト・バーブ協定に関する観測
- Authors: Bingzhi Li, Guillaume Wisniewski, and Benoit Crabb\'e
- Abstract要約: 簡単な表面で,この合意作業において高い精度を達成できることが示される。
長範囲のフランス語オブジェクトバーブ合意における結果のきめ細かい分析は、LSTMとは対照的に、トランスフォーマーは非自明な文法構造を捉えることができることを示している。
- 参考スコア(独自算出の注目度): 5.448283690603357
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many recent works have demonstrated that unsupervised sentence
representations of neural networks encode syntactic information by observing
that neural language models are able to predict the agreement between a verb
and its subject. We take a critical look at this line of research by showing
that it is possible to achieve high accuracy on this agreement task with simple
surface heuristics, indicating a possible flaw in our assessment of neural
networks' syntactic ability. Our fine-grained analyses of results on the
long-range French object-verb agreement show that contrary to LSTMs,
Transformers are able to capture a non-trivial amount of grammatical structure.
- Abstract(参考訳): 多くの最近の研究で、ニューラルネットワークの教師なし文表現が構文情報を符号化し、ニューラルネットワークモデルが動詞とその主題間の一致を予測できることが示されている。
ニューラルネットワークの構文能力を評価する上での欠陥を示唆し, 簡単な表面ヒューリスティックスを用いて, この合意作業において高い精度で達成可能であることを示すことによって, この研究の行を批判的に考察する。
長範囲のフランス語オブジェクトバーブ合意における結果のきめ細かい分析は、LSTMとは対照的に、トランスフォーマーは非自明な文法構造を捉えることができることを示している。
関連論文リスト
- Transformers need glasses! Information over-squashing in language tasks [18.81066657470662]
復号器のみの変換器における情報伝達について検討する。
変換器への入力の特定のシーケンスは、最終的なトークンにおいて任意にクローズな表現が得られることを示す。
また,デコーダのみのトランスフォーマー言語モデルでは,入力中の特定のトークンに対する感度が低下することを示す。
論文 参考訳(メタデータ) (2024-06-06T17:14:44Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - Seeing in Words: Learning to Classify through Language Bottlenecks [59.97827889540685]
人間は簡潔で直感的な説明を使って予測を説明することができる。
特徴表現がテキストである視覚モデルでは,画像ネットイメージを効果的に分類できることを示す。
論文 参考訳(メタデータ) (2023-06-29T00:24:42Z) - Assessing the Capacity of Transformer to Abstract Syntactic
Representations: A Contrastive Analysis Based on Long-distance Agreement [4.995343972237368]
長距離契約は、ニューラルネットワークモデルの構文的一般化を評価するために、ますます使われている。
多くの研究から、トランスフォーマーは様々な合意タスクにおいて高い精度で実行可能であることが示されている。
この研究は、2つの超現実的に類似しているが理論的に異なる一致現象を扱う方法とは対照的である。
論文 参考訳(メタデータ) (2022-12-08T19:10:46Z) - Emergent Linguistic Structures in Neural Networks are Fragile [20.692540987792732]
大規模言語モデル (LLM) は自然言語処理タスクにおいて高い性能を示すと報告されている。
言語表現の一貫性と堅牢性を評価するための枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T15:43:57Z) - Syntactic Perturbations Reveal Representational Correlates of
Hierarchical Phrase Structure in Pretrained Language Models [22.43510769150502]
文レベルの構文のどの側面がベクターベースの言語表現によってキャプチャされるのかは、完全には分かっていない。
このプロセスでは,トランスフォーマーが文のより大きな部分の層に感性を持たせることが示され,階層的な句構造が重要な役割を果たしている。
論文 参考訳(メタデータ) (2021-04-15T16:30:31Z) - On Long-Tailed Phenomena in Neural Machine Translation [50.65273145888896]
最先端のニューラルネットワーク翻訳(NMT)モデルは、低周波トークンの生成に苦労する。
条件付きテキスト生成における構造的依存関係にモデルトレーニングを適応させるために,新たな損失関数である反焦点損失を提案する。
提案手法は,複数の機械翻訳(MT)データセットに対して有効であり,クロスエントロピーよりも顕著に向上することを示す。
論文 参考訳(メタデータ) (2020-10-10T07:00:57Z) - Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation [71.70562795158625]
従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析を長い間保持(教師付き)してきた。
近年のエンドツーエンドニューラルネットワークの出現、言語モデリング(LM)による自己監視、および幅広いLUタスクにおける成功は、この信念に疑問を投げかけている。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
論文 参考訳(メタデータ) (2020-08-15T21:03:36Z) - Learning Source Phrase Representations for Neural Machine Translation [65.94387047871648]
本稿では,対応するトークン表現から句表現を生成可能な注意句表現生成機構を提案する。
実験では,強力なトランスフォーマーベースライン上でのWMT 14の英語・ドイツ語・英語・フランス語タスクにおいて,大幅な改善が得られた。
論文 参考訳(メタデータ) (2020-06-25T13:43:11Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。