論文の概要: Exploring the Use of Foundation Models for Named Entity Recognition and
Lemmatization Tasks in Slavic Languages
- arxiv url: http://arxiv.org/abs/2304.05336v1
- Date: Tue, 11 Apr 2023 16:55:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-12 14:06:21.472596
- Title: Exploring the Use of Foundation Models for Named Entity Recognition and
Lemmatization Tasks in Slavic Languages
- Title(参考訳): スラヴ語における名前付きエンティティ認識と読み上げ課題のための基礎モデルの利用
- Authors: Gabriela Pa{\l}ka and Artur Nowakowski
- Abstract要約: 本稿では,SlavNERの第4共有タスクに対するAdam Mickiewicz大学(AMU)のソリューションについて述べる。
このタスクには、スラヴ語における名前のエンティティの識別、分類、および補題化が含まれる。
本研究では,本手法がスラヴ語におけるNERと補題化に有効であることを示す。
- 参考スコア(独自算出の注目度): 0.060917028769172814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes Adam Mickiewicz University's (AMU) solution for the 4th
Shared Task on SlavNER. The task involves the identification, categorization,
and lemmatization of named entities in Slavic languages. Our approach involved
exploring the use of foundation models for these tasks. In particular, we used
models based on the popular BERT and T5 model architectures. Additionally, we
used external datasets to further improve the quality of our models. Our
solution obtained promising results, achieving high metrics scores in both
tasks. We describe our approach and the results of our experiments in detail,
showing that the method is effective for NER and lemmatization in Slavic
languages. Additionally, our models for lemmatization will be available at:
https://huggingface.co/amu-cai.
- Abstract(参考訳): 本稿では,SlavNERの第4共有タスクに対するAdam Mickiewicz大学(AMU)のソリューションについて述べる。
このタスクは、スラヴ語における名前付き実体の識別、分類、補間を含む。
私たちのアプローチでは、これらのタスクに対する基盤モデルの使用を探求しました。
特に、人気のあるBERTとT5モデルアーキテクチャに基づいたモデルを使用しました。
さらに、外部データセットを使用して、モデルの品質をさらに向上しました。
我々のソリューションは有望な結果を得て、両方のタスクで高い測定値を得た。
本研究では,本手法がスラヴ語におけるNERと補題化に有効であることを示す。
さらに、補間モデルもhttps://huggingface.co/amu-caiで利用可能になります。
関連論文リスト
- One Model is All You Need: ByT5-Sanskrit, a Unified Model for Sanskrit NLP Tasks [26.848664285007022]
ByT5-Sanskritは、形態的にリッチなサンスクリット言語を含むNLPアプリケーション向けに設計された。
外部の言語資源によってカバーされていないデータへのデプロイが容易で、より堅牢である。
提案手法は,他の形態学的にリッチな言語に対する補題化と依存関係解析のための新たなベストスコアが得られることを示す。
論文 参考訳(メタデータ) (2024-09-20T22:02:26Z) - Walia-LLM: Enhancing Amharic-LLaMA by Integrating Task-Specific and Generative Datasets [2.8123257987021058]
タスク固有および生成データセットを統合することでLLaMA-2-Amharicモデルの強化に注力する。
我々はAmharic命令の微調整データセットとLLaMA-2-Amharicモデルをコンパイルする。
微調整されたモデルは、異なるNLPタスクで有望な結果を示す。
論文 参考訳(メタデータ) (2024-02-12T19:25:11Z) - Cross-Lingual NER for Financial Transaction Data in Low-Resource
Languages [70.25418443146435]
半構造化テキストデータにおける言語間名前認識のための効率的なモデリングフレームワークを提案する。
我々は2つの独立したSMSデータセットを英語とアラビア語で使用し、それぞれが半構造化された銀行取引情報を持っている。
わずか30のラベル付きサンプルにアクセスすることで、我々のモデルは、英語からアラビア語までの商人、金額、その他の分野の認識を一般化することができる。
論文 参考訳(メタデータ) (2023-07-16T00:45:42Z) - WikiGoldSK: Annotated Dataset, Baselines and Few-Shot Learning
Experiments for Slovak Named Entity Recognition [0.0]
WikiGoldSKは,スロバキアのNERデータセットを初めてラベル付けした人体である。
我々は、最先端の多言語事前学習言語モデルを評価することで、それをベンチマークする。
数ショットの実験を行い、標準データセットのトレーニングがより良い結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-04-08T14:37:52Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Entity-Assisted Language Models for Identifying Check-worthy Sentences [23.792877053142636]
テキスト分類とランキングのための統一的なフレームワークを提案する。
本フレームワークは,文の意味的分析と,文内の識別されたエンティティから得られる追加のエンティティ埋め込みを組み合わせる。
CLEFの2019年と2020年のCheckThat! Labsから公開されている2つのデータセットを使用して、我々のフレームワークの有効性を広く評価する。
論文 参考訳(メタデータ) (2022-11-19T12:03:30Z) - e-ViL: A Dataset and Benchmark for Natural Language Explanations in
Vision-Language Tasks [52.918087305406296]
説明可能な視覚言語タスクを評価するベンチマークe-ViLを紹介します。
また、NLEで最大のデータセットであるe-SNLI-VEについても紹介する。
画像とテキストの共同埋め込みを学習するUNITERと、予め訓練された言語モデルであるGPT-2を組み合わせた新しいモデルを提案する。
論文 参考訳(メタデータ) (2021-05-08T18:46:33Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - German's Next Language Model [0.8520624117635327]
GBERT と GELECTRA をベースとした言語モデル GBERT と GELECTRA の作成に繋がる実験について述べる。
入力トレーニングデータやモデルサイズ,WWMの存在によって,文書分類やエンティティ認識タスクの集合を通じて,SoTAのパフォーマンスを達成できたのです。
論文 参考訳(メタデータ) (2020-10-21T11:28:23Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - Soft Gazetteers for Low-Resource Named Entity Recognition [78.00856159473393]
本稿では、英語知識ベースからユビキタスに利用可能な情報をニューラル名付きエンティティ認識モデルに組み込む「ソフトガゼッタ」を提案する。
4つの低リソース言語に対する実験により,F1得点の4点の平均的改善が示された。
論文 参考訳(メタデータ) (2020-05-04T21:58:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。