論文の概要: Enhancing deep neural networks with morphological information
- arxiv url: http://arxiv.org/abs/2011.12432v2
- Date: Tue, 1 Mar 2022 22:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 13:10:08.276346
- Title: Enhancing deep neural networks with morphological information
- Title(参考訳): 形態情報によるディープニューラルネットワークの強化
- Authors: Matej Klemen, Luka Krsnik, Marko Robnik-\v{S}ikonja
- Abstract要約: LSTMモデルとBERTモデルに形態学的特徴を加える効果を解析した。
その結果, 形態的特徴の付加は, 特徴の質や課題によって異なることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning approaches are superior in NLP due to their ability to extract
informative features and patterns from languages. The two most successful
neural architectures are LSTM and transformers, used in large pretrained
language models such as BERT. While cross-lingual approaches are on the rise,
most current NLP techniques are designed and applied to English, and
less-resourced languages are lagging behind. In morphologically rich languages,
information is conveyed through morphology, e.g., through affixes modifying
stems of words. Existing neural approaches do not explicitly use the
information on word morphology. We analyse the effect of adding morphological
features to LSTM and BERT models. As a testbed, we use three tasks available in
many less-resourced languages: named entity recognition (NER), dependency
parsing (DP), and comment filtering (CF). We construct baselines involving LSTM
and BERT models, which we adjust by adding additional input in the form of part
of speech (POS) tags and universal features. We compare models across several
languages from different language families. Our results suggest that adding
morphological features has mixed effects depending on the quality of features
and the task. The features improve the performance of LSTM-based models on the
NER and DP tasks, while they do not benefit the performance on the CF task. For
BERT-based models, the morphological features only improve the performance on
DP when they are of high quality while not showing practical improvement when
they are predicted. Even for high-quality features, the improvements are less
pronounced in language-specific BERT variants compared to massively
multilingual BERT models. As in NER and CF datasets manually checked features
are not available, we only experiment with predicted features and find that
they do not cause any practical improvement in performance.
- Abstract(参考訳): ディープラーニングアプローチは、言語から情報的特徴やパターンを抽出する能力により、NLPにおいて優れている。
最も成功した2つのニューラルアーキテクチャはLSTMとトランスフォーマーであり、BERTのような大規模な事前訓練された言語モデルで使用される。
言語間のアプローチが増えている一方で、現在のNLP技術のほとんどは英語に設計され、適用されています。
形態学的に豊かな言語では、情報は形態素、例えば単語の語幹を修飾する接尾辞を通じて伝達される。
既存のニューラルアプローチでは、単語形態に関する情報を明示的に使用していない。
LSTMモデルとBERTモデルに形態学的特徴を加える効果を解析した。
テストベッドとして、名前付きエンティティ認識(NER)、依存性解析(DP)、コメントフィルタリング(CF)の3つのタスクを使用します。
我々はLSTMとBERTモデルを含むベースラインを構築し、音声(POS)タグの一部と普遍的な特徴の形で追加入力を追加することで調整する。
異なる言語ファミリーの複数の言語をまたいだモデルを比較する。
その結果, 形態的特徴の付加は, 特徴の質や課題によって異なることが示唆された。
これらの機能はNERタスクとDPタスクにおけるLSTMベースのモデルの性能を改善するが、CFタスクのパフォーマンスには恩恵がない。
BERTをベースとしたモデルでは、その形態的特徴はDPの質が高い場合にのみ向上するが、予測されたときの実用的な改善は示さない。
高品質な機能であっても、言語固有のBERTモデルでは、多言語BERTモデルに比べて改善は顕著ではない。
NER や CF のデータセットでは手動でチェックした機能が利用できないため、予測された機能を試すだけで、パフォーマンスが実際に改善されることはない。
関連論文リスト
- Why do language models perform worse for morphologically complex languages? [0.913127392774573]
凝集型言語と融合型言語のパフォーマンスギャップを示す新たな証拠が発見された。
この性能ギャップの原因として, トークン化剤の形態的アライメント, トークン化品質, データセットサイズと測定の差異の3つが考えられる。
以上の結果から,言語モデルが形態的類型学に基づいて学習することが困難あるいは容易な言語は存在しないことが示唆された。
論文 参考訳(メタデータ) (2024-11-21T15:06:51Z) - ML-SUPERB 2.0: Benchmarking Multilingual Speech Models Across Modeling Constraints, Languages, and Datasets [106.7760874400261]
本稿では、事前訓練されたSSLと教師付き音声モデルを評価するための新しいベンチマークであるML-SUPERB2.0を提案する。
ML-SUPERBのセットアップよりも性能が向上するが、性能は下流モデル設計に依存している。
また、言語とデータセットのパフォーマンスに大きな違いがあることから、よりターゲットを絞ったアプローチの必要性も示唆されている。
論文 参考訳(メタデータ) (2024-06-12T21:01:26Z) - Improving Massively Multilingual ASR With Auxiliary CTC Objectives [40.10307386370194]
FLEURSは102言語によるオープンASRベンチマークである。
我々は,最近のコネクショニスト時間分類(CTC)研究から着想を得た手法を考察し,モデルが多数の言語を扱えるようにした。
コンバータアーキテクチャを用いた自己教師型モデルを用いた最先端システムでは,相対28.4%CERによるFLEURSの先行研究よりも改善されている。
論文 参考訳(メタデータ) (2023-02-24T18:59:51Z) - KinyaBERT: a Morphology-aware Kinyarwanda Language Model [1.2183405753834562]
教師なしサブワードトークン化法は、形態的にリッチな言語を扱うのに最適である。
本稿では, 形態素解析を応用し, 構造的構成性を明確に表現する, 単純かつ効果的な2層BERTアーキテクチャを提案する。
提案手法を低リソース形態素に富んだKinyaarwanda言語上で評価し,モデルアーキテクチャKinyaBERTを命名した。
論文 参考訳(メタデータ) (2022-03-16T08:36:14Z) - NL-Augmenter: A Framework for Task-Sensitive Natural Language
Augmentation [91.97706178867439]
提案するNL-Augmenterは,Pythonベースの自然言語拡張フレームワークである。
このフレームワークと117の変換と23のフィルタを、さまざまな自然言語タスクに対して記述する。
我々は,NL-Augmenterの有効性を,NL-Augmenterの変換を用いて検証し,自然言語モデルのロバスト性を解析した。
論文 参考訳(メタデータ) (2021-12-06T00:37:59Z) - To Augment or Not to Augment? A Comparative Study on Text Augmentation
Techniques for Low-Resource NLP [0.0]
本稿では,構文の変更を行うテキスト拡張手法の3つのカテゴリについて検討する。
音声のタグ付けや依存性解析,セマンティックロールのラベル付けなどにおいて,多種多様な言語ファミリに対して比較を行った。
以上の結果から,mBERTに基づくベースラインの強化により,より高機能化が可能であることが示唆された。
論文 参考訳(メタデータ) (2021-11-18T10:52:48Z) - Continual Learning in Multilingual NMT via Language-Specific Embeddings [92.91823064720232]
共有語彙を小さな言語固有の語彙に置き換え、新しい言語の並列データに新しい埋め込みを微調整する。
元のモデルのパラメータは変更されていないため、初期言語の性能は劣化しない。
論文 参考訳(メタデータ) (2021-10-20T10:38:57Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Pre-training Multilingual Neural Machine Translation by Leveraging
Alignment Information [72.2412707779571]
mRASPは、汎用多言語ニューラルマシン翻訳モデルを事前訓練するためのアプローチである。
我々は,低,中,豊かな資源を含む多種多様な環境における42の翻訳方向の実験を行い,エキゾチックな言語対への変換を行った。
論文 参考訳(メタデータ) (2020-10-07T03:57:54Z) - ParsBERT: Transformer-based Model for Persian Language Understanding [0.7646713951724012]
本稿ではペルシャ語用単言語BERT(ParsBERT)を提案する。
他のアーキテクチャや多言語モデルと比較すると、最先端のパフォーマンスを示している。
ParsBERTは、既存のデータセットや合成データセットを含む、すべてのデータセットでより高いスコアを取得する。
論文 参考訳(メタデータ) (2020-05-26T05:05:32Z) - Cross-lingual, Character-Level Neural Morphological Tagging [57.0020906265213]
文字レベルのリカレントなニューラルタグをトレーニングし、高リソース言語と低リソース言語を併用して形態的タグ付けを予測する。
複数の関連言語間の共同文字表現の学習は、高リソース言語から低リソース言語への知識伝達を成功させ、モノリンガルモデルの精度を最大30%向上させる。
論文 参考訳(メタデータ) (2017-08-30T08:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。