論文の概要: Neural Coreference Resolution for Arabic
- arxiv url: http://arxiv.org/abs/2011.00286v1
- Date: Sat, 31 Oct 2020 14:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:46:22.713290
- Title: Neural Coreference Resolution for Arabic
- Title(参考訳): アラビア語のニューラルコリファレンス分解能
- Authors: Abdulrahman Aloraini, Juntao Yu and Massimo Poesio
- Abstract要約: 我々は、Lee et alのエンドツーエンドアーキテクチャと、アラビア語版のbertと外部参照検出器を組み合わせた、アラビア語のコア参照解決システムを導入する。
われわれの知る限りでは、これはアラビア語に特化した最初のニューラルコア参照解決システムだ。
OntoNotes 5.0では15.2ポイントのconll F1で、既存の技術よりも大幅に優れています。
- 参考スコア(独自算出の注目度): 12.986359659930146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: No neural coreference resolver for Arabic exists, in fact we are not aware of
any learning-based coreference resolver for Arabic since (Bjorkelund and Kuhn,
2014). In this paper, we introduce a coreference resolution system for Arabic
based on Lee et al's end to end architecture combined with the Arabic version
of bert and an external mention detector. As far as we know, this is the first
neural coreference resolution system aimed specifically to Arabic, and it
substantially outperforms the existing state of the art on OntoNotes 5.0 with a
gain of 15.2 points conll F1. We also discuss the current limitations of the
task for Arabic and possible approaches that can tackle these challenges.
- Abstract(参考訳): アラビア語のニューラルコア参照リゾルバは存在せず、実際、我々はアラビア語の学習に基づくコア参照リゾルバを知らない(Bjorkelund and Kuhn, 2014)。
本稿では,lee et al の end to end architecture と bert のアラビア語版と外部参照検出器を組み合わせた,アラビア語のコリファレンス解決システムを提案する。
われわれの知る限りでは、これはアラビア語に特化した最初のニューラルコア参照解決システムであり、OntoNotes 5.0の既存の状態を15.2ポイントのconll F1で大幅に上回っている。
また、これらの課題に対処できるアラビア語および可能なアプローチのタスクの現在の制限についても論じる。
関連論文リスト
- Bilingual Adaptation of Monolingual Foundation Models [48.859227944759986]
単言語大言語モデル(LLM)を他の言語に適応させる効率的な手法を提案する。
2段階のアプローチは、語彙を拡張し、埋め込み行列のみをトレーニングすることから始まります。
アラビア語と英語のコーパスを混ぜて継続的に事前訓練することで、このモデルは英語の習熟度を維持しつつ、アラビア語の能力を獲得している。
論文 参考訳(メタデータ) (2024-07-13T21:09:38Z) - Can a Multichoice Dataset be Repurposed for Extractive Question Answering? [52.28197971066953]
我々は,Multiple-choice Question answering (MCQA)のために設計されたBandarkar et al.(Bandarkar et al., 2023)を再利用した。
本稿では,英語と現代標準アラビア語(MSA)のためのガイドラインと並列EQAデータセットを提案する。
私たちの目標は、ベレベレにおける120以上の言語変異に対して、他者が私たちのアプローチを適応できるようにすることです。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - ArabicaQA: A Comprehensive Dataset for Arabic Question Answering [13.65056111661002]
アラビカQAは、アラビア語で機械読解とオープンドメイン質問応答のための最初の大規模データセットである。
また、アラビア語ウィキペディアコーパスで訓練された最初の高密度経路探索モデルであるAraDPRを提示する。
論文 参考訳(メタデータ) (2024-03-26T16:37:54Z) - ArabicMMLU: Assessing Massive Multitask Language Understanding in Arabic [51.922112625469836]
アラビア語における最初のマルチタスク言語理解ベンチマークである、データセット名を提案する。
我々のデータは、現代標準アラビア語(MSA)における40のタスクと14,575のマルチチョイス質問で構成されており、地域の母語話者と協調して慎重に構築されている。
35モデルについて評価した結果,特にオープンソースモデルにおいて,改善の余地がかなり高いことが判明した。
論文 参考訳(メタデータ) (2024-02-20T09:07:41Z) - Arabic Sentiment Analysis with Noisy Deep Explainable Model [48.22321420680046]
本稿では,アラビア語の感情分類フレームワークを提案する。
提案フレームワークは,局所的な代理説明可能なモデルをトレーニングすることで,特定の予測を説明することができる。
アラビアサデータセットの公開ベンチマーク実験を行った。
論文 参考訳(メタデータ) (2023-09-24T19:26:53Z) - AceGPT, Localizing Large Language Models in Arabic [73.39989503874634]
本稿では,アラビア語のテキストによる事前学習,ネイティブなアラビア語命令を利用したSFT(Supervised Fine-Tuning),アラビア語のGPT-4応答を含む総合的なソリューションを提案する。
目標は、文化的に認知され、価値に整合したアラビア語のLLMを、多様で応用特有のアラビア語コミュニティのニーズに適応させることである。
論文 参考訳(メタデータ) (2023-09-21T13:20:13Z) - Jais and Jais-chat: Arabic-Centric Foundation and Instruction-Tuned Open
Generative Large Language Models [57.76998376458017]
私たちはJaisとJais-chatを紹介します。これは、最先端のアラビア中心の新たな基礎であり、命令で調整されたオープンな生成型大言語モデル(LLMs)です。
モデルはGPT-3デコーダのみのアーキテクチャに基づいており、アラビア語と英語のテキストが混在している。
本稿では、トレーニング、チューニング、安全性アライメント、モデルの評価について詳述する。
論文 参考訳(メタデータ) (2023-08-30T17:07:17Z) - A Survey on Arabic Named Entity Recognition: Past, Recent Advances, and
Future Trends [15.302538985992518]
我々はアラビア語 NER の発展に関する総合的なレビューを行う。
伝統的なアラビアのNERシステムは、機能工学とドメイン固有のルールの設計に重点を置いている。
事前訓練された言語モデルの成長に伴い、アラビア語のNERはより良いパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-02-07T14:56:52Z) - ORCA: A Challenging Benchmark for Arabic Language Understanding [8.9379057739817]
ORCAはアラビア語理解評価のための公開ベンチマークである。
アラビア語NLUの現在の進歩を測定するため、ORCAを用いて18の多言語モデルとアラビア語モデルを比較した。
論文 参考訳(メタデータ) (2022-12-21T04:35:43Z) - TCE at Qur'an QA 2022: Arabic Language Question Answering Over Holy
Qur'an Using a Post-Processed Ensemble of BERT-based Models [0.0]
アラビア語は神聖なクルアーンの言語であり、世界中の18億人の人々の神聖なテキストである。
本稿では,BERTモデルのアラビア変種に基づくアンサンブル学習モデルを提案する。
本システムでは,公式テストセットでPRR(Partial Reciprocal Rank)スコアが56.6%に達する。
論文 参考訳(メタデータ) (2022-06-03T13:00:48Z) - TArC: Incrementally and Semi-Automatically Collecting a Tunisian Arabish
Corpus [3.8580784887142774]
本稿では,第1次チュニジア・アラブ人コーパス(TArC)の構成過程について述べる。
アラビア語(アラビア語: Arabizi)は、アラビア語の方言をラテン文字とアリスモグラフ(文字として使われる数字)で自発的に符号化したものである。
論文 参考訳(メタデータ) (2020-03-20T22:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。