論文の概要: LemMED: Fast and Effective Neural Morphological Analysis with Short
Context Windows
- arxiv url: http://arxiv.org/abs/2010.10921v1
- Date: Wed, 21 Oct 2020 12:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:49:47.103318
- Title: LemMED: Fast and Effective Neural Morphological Analysis with Short
Context Windows
- Title(参考訳): LemMED:ショートコンテキストウィンドウを用いた高速かつ効果的な神経形態解析
- Authors: Aibek Makazhanov, Sharon Goldwater, Adam Lopez
- Abstract要約: LemMEDは文脈形態解析のための文字レベルエンコーダデコーダである。
私たちのアプローチでは、個別の補題化とタグ付けモデルのトレーニングは必要ありません。
LemMEDは13のシステムの中で第5位にランクされ、コンテキスト化された埋め込みを用いた提出によってのみ評価される。
- 参考スコア(独自算出の注目度): 25.71366738053197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present LemMED, a character-level encoder-decoder for contextual
morphological analysis (combined lemmatization and tagging). LemMED extends and
is named after two other attention-based models, namely Lematus, a contextual
lemmatizer, and MED, a morphological (re)inflection model. Our approach does
not require training separate lemmatization and tagging models, nor does it
need additional resources and tools, such as morphological dictionaries or
transducers. Moreover, LemMED relies solely on character-level representations
and on local context. Although the model can, in principle, account for global
context on sentence level, our experiments show that using just a single word
of context around each target word is not only more computationally feasible,
but yields better results as well. We evaluate LemMED in the framework of the
SIMGMORPHON-2019 shared task on combined lemmatization and tagging. In terms of
average performance LemMED ranks 5th among 13 systems and is bested only by the
submissions that use contextualized embeddings.
- Abstract(参考訳): 本稿では,文脈形態素解析のための文字レベルのエンコーダデコーダであるlemmedを提案する。
LemMEDは、他の2つの注意に基づくモデル、すなわち文脈レマタイザーであるLematusと、形態的(再)反射モデルであるMEDから名付けられている。
私たちのアプローチでは、別々の補題化やタグ付けモデルをトレーニングする必要はなく、形態素辞書やトランスデューサといった追加のリソースやツールも必要ありません。
さらに、LemMEDは文字レベルの表現とローカルコンテキストのみに依存している。
このモデルは、原則として、文レベルでのグローバルな文脈を説明することができるが、我々の実験は、対象単語の周囲のコンテキストを1ワードだけ使うことが、より計算可能であるだけでなく、より良い結果をもたらすことを示した。
SIMGMORPHON-2019共有タスクのフレームワークにおけるLemMEDの評価を行った。
平均パフォーマンスの点では、lemmedは13のシステムの中で5番目にランク付けされ、コンテキスト化された埋め込みを使用する投稿によってのみ与えられる。
関連論文リスト
- Evaluating Shortest Edit Script Methods for Contextual Lemmatization [6.0158981171030685]
現代の文脈補綴器は、単語の形式を補題に変換するために、しばしば自動的に誘導された短い編集スクリプト(SES)に依存している。
これまでの研究では,SESが最終補修性能にどのような影響を及ぼすかは調査されていない。
ケーシング操作と編集操作を別々に計算することは、全体として有益であるが、高機能な形態を持つ言語には、より明確に有用であることを示す。
論文 参考訳(メタデータ) (2024-03-25T17:28:24Z) - Semantics-enhanced Cross-modal Masked Image Modeling for Vision-Language
Pre-training [87.69394953339238]
Masked Image Modeling (MIM) が最近導入され、細粒度のクロスモーダルアライメントを実現している。
視覚言語表現学習のためのセマンティクス強化クロスモーダルMIMフレームワーク(SemMIM)を提案する。
論文 参考訳(メタデータ) (2024-03-01T03:25:58Z) - On the Role of Morphological Information for Contextual Lemmatization [7.106986689736827]
6言語における文脈補間器の開発における形態情報の役割について検討する。
バスク語、トルコ語、ロシア語、チェコ語、スペイン語、英語。
実験により、ドメイン外で最高のレマタイザは、単純な UPOS タグを使ったものか、形態学なしで訓練されたものであることが示唆されている。
論文 参考訳(メタデータ) (2023-02-01T12:47:09Z) - Open-vocabulary Semantic Segmentation with Frozen Vision-Language Models [39.479912987123214]
自己指導型学習は、幅広い視覚的・言語的理解タスクを解く顕著な能力を示した。
Fusionerは軽量なトランスフォーマーベースの融合モジュールで、凍結した視覚表現と言語概念をペアリングする。
提案手法は,任意の視覚モデルと言語モデル,あるいはユニモーダルデータのコーパス上で事前学習したモデルに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-10-27T02:57:26Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - Modeling Target-Side Morphology in Neural Machine Translation: A
Comparison of Strategies [72.56158036639707]
形態的に豊かな言語は機械翻訳に困難をもたらす。
多数の異なる屈折する単語曲面は、より大きな語彙を必要とする。
いくつかの頻度の低い用語は、通常、トレーニングコーパスには現れない。
言語的合意は、出力文中の屈折語形間の文法的カテゴリを正しく一致させる必要がある。
論文 参考訳(メタデータ) (2022-03-25T10:13:20Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Evaluation of Morphological Embeddings for the Russian Language [0.0]
SkipgramObjectiveで訓練されたモルフォロジーベースの埋め込みは、既存の埋め込みモデル-FastTextを上回っません。
より複雑な、しかしモルフォロジーを知らないモデル、BERTは、単語のモルフォロジーの理解を必要とするタスクで大幅に大きなパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2021-03-11T11:59:11Z) - A Comparative Study of Lexical Substitution Approaches based on Neural
Language Models [117.96628873753123]
本稿では,一般的なニューラル言語とマスキング言語モデルの大規模比較研究について述べる。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによって達成された既に競合する結果をさらに改善できることを示す。
論文 参考訳(メタデータ) (2020-05-29T18:43:22Z) - A Simple Joint Model for Improved Contextual Neural Lemmatization [60.802451210656805]
本稿では,20言語で最先端の成果を得られる,単純結合型ニューラルモデルを提案する。
本論文では,トレーニングと復号化に加えて,本モデルについて述べる。
論文 参考訳(メタデータ) (2019-04-04T02:03:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。