論文の概要: Multilingual Multiword Expression Identification Using Lateral
Inhibition and Domain Adaptation
- arxiv url: http://arxiv.org/abs/2306.10419v1
- Date: Sat, 17 Jun 2023 20:28:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 20:54:05.247360
- Title: Multilingual Multiword Expression Identification Using Lateral
Inhibition and Domain Adaptation
- Title(参考訳): 側方抑制とドメイン適応を用いた多言語多語表現の同定
- Authors: Andrei-Marius Avram, Verginica Barbu Mititelu, Vasile P\u{a}i\c{s},
Dumitru-Clementin Cercel and \c{S}tefan Tr\u{a}u\c{s}an-Matu
- Abstract要約: 多言語文脈におけるMWE識別のためのmBERTモデルの性能評価を行った。
我々は、言語に依存しない埋め込みを作成する手法に、側方抑制と言語敵対訓練を取り入れた。
- 参考スコア(独自算出の注目度): 0.13999481573773073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Correctly identifying multiword expressions (MWEs) is an important task for
most natural language processing systems since their misidentification can
result in ambiguity and misunderstanding of the underlying text. In this work,
we evaluate the performance of the mBERT model for MWE identification in a
multilingual context by training it on all 14 languages available in version
1.2 of the PARSEME corpus. We also incorporate lateral inhibition and language
adversarial training into our methodology to create language-independent
embeddings and improve its capabilities in identifying multiword expressions.
The evaluation of our models shows that the approach employed in this work
achieves better results compared to the best system of the PARSEME 1.2
competition, MTLB-STRUCT, on 11 out of 14 languages for global MWE
identification and on 12 out of 14 languages for unseen MWE identification.
Additionally, averaged across all languages, our best approach outperforms the
MTLB-STRUCT system by 1.23% on global MWE identification and by 4.73% on unseen
global MWE identification.
- Abstract(参考訳): 多語表現(mwes)を正しく識別することは、その誤認が基礎となるテキストの曖昧さと誤解をもたらす可能性があるため、ほとんどの自然言語処理システムにとって重要なタスクである。
本研究では, PARSEMEコーパスのバージョン1.2で利用可能な14言語すべてを対象に, MWE識別のためのmBERTモデルの性能を多言語文脈で評価する。
また,言語非依存な組込みを作成し,多語表現の識別能力を向上させるために,側面抑制と言語敵対訓練を方法論に組み込んだ。
提案手法は,グローバルなMWE識別のための14言語中11言語,不明なMWE識別のための14言語中12言語において,PARSEME 1.2コンペティションのベストシステムであるMTLB-STRUCTと比較して,よりよい結果が得られることを示す。
さらに、すべての言語で平均的に比較すると、MTLB-STRUCTシステムでは、グローバルなMWE識別では1.23%、不明なグローバルなMWE識別では4.73%を上回っています。
関連論文リスト
- All Languages Matter: Evaluating LMMs on Culturally Diverse 100 Languages [73.93600813999306]
ALM-benchは、100言語にわたるLMMを評価するための、これまでで最大かつ最も包括的な取り組みである。
様々な言語でテキストと組み合わせた文化的に多様なイメージを理解し、推論する能力をテストすることで、既存のモデルに挑戦する。
このベンチマークは、真/偽、複数選択、オープンな質問など、さまざまな質問フォーマットを備えた、堅牢でニュアンスの高い評価フレームワークを提供する。
論文 参考訳(メタデータ) (2024-11-25T15:44:42Z) - Multi-IF: Benchmarking LLMs on Multi-Turn and Multilingual Instructions Following [51.18383180774354]
Multi-IFは,大規模言語モデルの習熟度を多元的および多言語的指示に従って評価するための新しいベンチマークである。
Multi-IF 上での14の最先端 LLM の評価結果から,既存のベンチマークよりもはるかに難しい課題であることが判明した。
非ラテン文字(ヒンディー語、ロシア語、中国語)を持つ言語は一般的に高いエラー率を示し、モデルの多言語能力の潜在的な制限を示唆している。
論文 参考訳(メタデータ) (2024-10-21T00:59:47Z) - Breaking Language Barriers in Multilingual Mathematical Reasoning: Insights and Observations [59.056367787688146]
本稿では, マルチリンガル数学推論 (xMR) LLM の探索と学習の先駆者である。
我々は10の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
翻訳を利用して、10個の異なる言語を含む最初の多言語数学推論命令データセットMGSM8KInstructを構築した。
論文 参考訳(メタデータ) (2023-10-31T08:09:20Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Romanian Multiword Expression Detection Using Multilingual Adversarial
Training and Lateral Inhibition [0.17188280334580194]
本稿では、PARSEME v1.2共有タスク用にリリースされたコーパス上でのルーマニア語マルチワード式の自動識別の改善について述べる。
提案手法では,最近導入された側方抑制層に基づく多言語的視点と,多言語言語モデルの性能向上のための対角訓練を仮定する。
論文 参考訳(メタデータ) (2023-04-22T09:10:49Z) - LVP-M3: Language-aware Visual Prompt for Multilingual Multimodal Machine
Translation [94.33019040320507]
マルチモーダル機械翻訳(MMT)は、視覚的特徴を持つテキストのみの翻訳を強化することに焦点を当てている。
最近の進歩は、各言語ペアごとに別々のモデルをトレーニングすることに苦慮している。
7つの言語をカバーする2つのMultilingual MMTベンチマークデータセットを確立することで,Multilingual MMTタスクを提案する。
論文 参考訳(メタデータ) (2022-10-19T12:21:39Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Universal Sentence Representation Learning with Conditional Masked
Language Model [7.334766841801749]
文表現を効果的に学習するための条件付きマスク言語モデリング(M)を提案する。
我々の英語CMLMモデルは,SentEvalの最先端性能を実現する。
完全に教師なしの学習方法として、CMLMは幅広い言語やドメインに便利に拡張できます。
論文 参考訳(メタデータ) (2020-12-28T18:06:37Z) - DICT-MLM: Improved Multilingual Pre-Training using Bilingual
Dictionaries [8.83363871195679]
主要な言語学習目的としてのマスケプド・モデリング(MLM)の目的。
DICT-MLMは、オリジナルのマスキングされた単語だけでなく、言語間の同義語も予測できるようにモデルにインセンティブを与える。
30以上の言語にまたがる複数の下流タスクに関する実証分析により,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2020-10-23T17:53:11Z) - On Learning Universal Representations Across Languages [37.555675157198145]
文レベルの表現を学習するための既存のアプローチを拡張し、言語間理解と生成の有効性を示す。
具体的には,複数の言語に分散した並列文の普遍表現を学習するための階層型コントラスト学習(HiCTL)手法を提案する。
我々は、XTREMEと機械翻訳という2つの難解な言語間タスクについて評価を行う。
論文 参考訳(メタデータ) (2020-07-31T10:58:39Z) - Multilingual Chart-based Constituency Parse Extraction from Pre-trained
Language Models [21.2879567125422]
本稿では,事前学習した言語モデルから完全(バイナリ)構文を抽出する手法を提案する。
本手法を多言語 PLM に適用することにより,9つの言語から文に対する非自明なパースを導き出すことができる。
論文 参考訳(メタデータ) (2020-04-08T05:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。