論文の概要: 1Cademy at Semeval-2022 Task 1: Investigating the Effectiveness of
Multilingual, Multitask, and Language-Agnostic Tricks for the Reverse
Dictionary Task
- arxiv url: http://arxiv.org/abs/2206.03702v1
- Date: Wed, 8 Jun 2022 06:39:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 00:52:27.756084
- Title: 1Cademy at Semeval-2022 Task 1: Investigating the Effectiveness of
Multilingual, Multitask, and Language-Agnostic Tricks for the Reverse
Dictionary Task
- Title(参考訳): 1Cademy at Semeval-2022 Task 1:Reverse Dictionary Taskにおける多言語・マルチタスク・言語に依存しないトリックの有効性の検討
- Authors: Zhiyong Wang, Ge Zhang, Nineli Lashkarashvili
- Abstract要約: 本稿では,SemEval2022タスクの逆辞書トラックに着目し,単語の埋め込みと辞書のグルースをマッチングする。
モデルは文の入力をSGNS、Char、Electraの3種類の埋め込みに変換する。
提案するElmoベースの単言語モデルが最も高い結果を得る。
- 参考スコア(独自算出の注目度): 13.480318097164389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes our system for the SemEval2022 task of matching
dictionary glosses to word embeddings. We focus on the Reverse Dictionary Track
of the competition, which maps multilingual glosses to reconstructed vector
representations. More specifically, models convert the input of sentences to
three types of embeddings: SGNS, Char, and Electra. We propose several
experiments for applying neural network cells, general multilingual and
multitask structures, and language-agnostic tricks to the task. We also provide
comparisons over different types of word embeddings and ablation studies to
suggest helpful strategies. Our initial transformer-based model achieves
relatively low performance. However, trials on different retokenization
methodologies indicate improved performance. Our proposed Elmobased monolingual
model achieves the highest outcome, and its multitask, and multilingual
varieties show competitive results as well.
- Abstract(参考訳): 本稿では,辞書グルースと単語埋め込みをマッチングするSemEval2022タスクについて述べる。
本稿では,多言語グルースを再構成ベクトル表現にマッピングするコンペティションの逆辞書トラックに着目した。
より具体的には、モデルは文の入力をsgns、char、electraの3種類の埋め込みに変換する。
本稿では,ニューラルネットワーク,汎用多言語およびマルチタスク構造,言語に依存しないトリックをタスクに適用するためのいくつかの実験を提案する。
また,様々な種類の単語埋め込みとアブレーション研究を比較し,有用な戦略を提案する。
我々の初期変圧器モデルでは比較的低性能を実現している。
しかし, 異なる再学習手法の試行は, 性能の向上を示唆している。
提案するelmoベース単言語モデルが最も高い結果を示し,そのマルチタスクと多言語版も競争結果を示している。
関連論文リスト
- Improving Multi-lingual Alignment Through Soft Contrastive Learning [9.454626745893798]
本稿では,事前学習した単言語埋め込みモデルによって測定された文の類似性に基づいて,多言語埋め込みを整合させる新しい手法を提案する。
翻訳文ペアが与えられた場合、言語間埋め込み間の類似性は、単言語教師モデルで測定された文の類似性に従うように、多言語モデルを訓練する。
論文 参考訳(メタデータ) (2024-05-25T09:46:07Z) - FonMTL: Towards Multitask Learning for the Fon Language [1.9370453715137865]
本稿では,Fon言語のための自然言語処理におけるモデル機能向上のための,マルチタスク学習のための最初の爆発的アプローチを提案する。
我々は2つの言語モデルヘッドをエンコーダとして利用して入力の共有表現を構築し,各タスクに対して線形層ブロックを用いて分類する。
Fon の NER および POS タスクの結果は,複数言語で事前訓練された言語モデルに対して,単一タスクで微調整された言語モデルと比較して,競争力(あるいはより優れた)性能を示す。
論文 参考訳(メタデータ) (2023-08-28T03:26:21Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Probing Structured Pruning on Multilingual Pre-trained Models: Settings,
Algorithms, and Efficiency [62.0887259003594]
本研究では,多言語事前学習言語モデルにおける構造化プルーニングの3つの側面について検討する。
9つの下流タスクの実験は、いくつかの反直観的な現象を示している。
モデルを一度トレーニングし、推論時に異なるモデルサイズに適応できるシンプルなアプローチであるDynamic Sparsificationを紹介します。
論文 参考訳(メタデータ) (2022-04-06T06:29:52Z) - Specializing Multilingual Language Models: An Empirical Study [50.7526245872855]
事前訓練された多言語モデルからの文脈化語表現は、自然言語タスクに対処するデファクトスタンダードとなっている。
これらのモデルではまれに、あるいは一度も見られない言語では、そのようなモデルを直接使用すると、最適な表現やデータの使用につながることが多い。
論文 参考訳(メタデータ) (2021-06-16T18:13:55Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - Learning Contextualised Cross-lingual Word Embeddings and Alignments for
Extremely Low-Resource Languages Using Parallel Corpora [63.5286019659504]
そこで本稿では,小さな並列コーパスに基づく文脈型言語間単語埋め込み学習手法を提案する。
本手法は,入力文の翻訳と再構成を同時に行うLSTMエンコーダデコーダモデルを用いて単語埋め込みを実現する。
論文 参考訳(メタデータ) (2020-10-27T22:24:01Z) - Mono vs Multilingual Transformer-based Models: a Comparison across
Several Language Tasks [1.2691047660244335]
BERT (Bidirectional Representations from Transformers) と ALBERT (A Lite BERT) は、言語モデルの事前学習方法である。
ポルトガルでトレーニングされたBERTとAlbertモデルを利用可能にしています。
論文 参考訳(メタデータ) (2020-07-19T19:13:20Z) - Learning to Scale Multilingual Representations for Vision-Language Tasks [51.27839182889422]
SMALRの有効性は、これまでビジョン言語タスクでサポートされた2倍以上の10の多言語で実証されている。
単語の埋め込み手法と比較して,訓練パラメータの1/5以下で,複数言語による画像文検索と先行作業の3~4%の性能評価を行った。
論文 参考訳(メタデータ) (2020-04-09T01:03:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。