論文の概要: Nile-Chat: Egyptian Language Models for Arabic and Latin Scripts
- arxiv url: http://arxiv.org/abs/2507.04569v1
- Date: Sun, 06 Jul 2025 22:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.239112
- Title: Nile-Chat: Egyptian Language Models for Arabic and Latin Scripts
- Title(参考訳): Nile-Chat:アラビア語とラテン文字のエジプト語モデル
- Authors: Guokan Shang, Hadi Abdine, Ahmad Chamma, Amr Mohamed, Mohamed Anwar, Abdelaziz Bounhar, Omar El Herraoui, Preslav Nakov, Michalis Vazirgiannis, Eric Xing,
- Abstract要約: エジプト方言のLLMのコレクションであるNile-Chat-4B, 3x4B-A6B, 12Bを紹介する。
具体的には、Nile-Chat-3x4B-A6Bを用いて、分岐トレイン-MiX戦略を利用してスクリプトの専門家を1つのMoEモデルにマージすることで、新しい言語適応手法を導入する。
LLaMa, Jais, alaMなどの多言語およびアラビア語のLLMを新たに導入したエジプトで, 我々のナイルチャートモデルは, 顕著に上回っている。
- 参考スコア(独自算出の注目度): 39.87186034911601
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Nile-Chat-4B, 3x4B-A6B, and 12B, a collection of LLMs for Egyptian dialect, uniquely designed to understand and generate texts written in both Arabic and Latin scripts. Specifically, with Nile-Chat-3x4B-A6B, we introduce a novel language adaptation approach by leveraging the Branch-Train-MiX strategy to merge script-specialized experts, into a single MoE model. Our Nile-Chat models significantly outperform leading multilingual and Arabic LLMs, such as LLaMa, Jais, and ALLaM, on our newly introduced Egyptian evaluation benchmarks, which span both understanding and generative tasks. Notably, our 12B model yields a 14.4% performance gain over Qwen2.5-14B-Instruct on Latin-script benchmarks. All our resources are publicly available. We believe this work presents a comprehensive methodology for adapting LLMs to dual-script languages, addressing an often overlooked aspect in modern LLM development.
- Abstract(参考訳): エジプト方言のLLMのコレクションであるNile-Chat-4B, 3x4B-A6B, 12Bを紹介する。
具体的には、Nile-Chat-3x4B-A6Bを用いて、分岐トレイン-MiX戦略を利用してスクリプトの専門家を1つのMoEモデルにマージすることで、新しい言語適応手法を導入する。
我々のNile-Chatモデルは、新たに導入されたエジプト評価ベンチマークにおいて、LLaMa、Jais、ALLaMといった多言語およびアラビア語のLLMよりも大幅に優れています。
特に、当社の12Bモデルでは、ラテン文字ベンチマークのQwen2.5-14B-Instructよりも14.4%パフォーマンスが向上しています。
私たちのリソースはすべて公開されています。
この研究は、LLMをデュアルスクリプト言語に適用するための包括的な方法論を示し、現代のLLM開発においてしばしば見落とされがちな側面に対処する。
関連論文リスト
- M-Prometheus: A Suite of Open Multilingual LLM Judges [64.22940792713713]
M-Prometheusは,多言語出力の直接評価とペア比較フィードバックを両立できるオープンウェイトLLM判定器のスイートである。
M-Prometheusモデルは、20以上の言語にまたがる多言語報酬ベンチマークや、4つの言語対をカバーする文語機械翻訳(MT)評価において、最先端のLLM判事より優れている。
論文 参考訳(メタデータ) (2025-04-07T11:37:26Z) - Atlas-Chat: Adapting Large Language Models for Low-Resource Moroccan Arabic Dialect [45.755756115243486]
既存のDarija言語リソースを統合することで,命令データセットを構築する。
データセットに微調整されたAtlas-Chat-2B、9B、27Bモデルは、Darija命令に従う上で優れた能力を示す。
論文 参考訳(メタデータ) (2024-09-26T14:56:38Z) - AraDiCE: Benchmarks for Dialectal and Cultural Capabilities in LLMs [22.121471902726892]
本稿ではアラビア方言と文化評価のベンチマークであるAraDiCEを紹介する。
湾岸地域、エジプト地域、レバント地域の文化意識を評価するために設計された最初のきめ細かいベンチマーク。
論文 参考訳(メタデータ) (2024-09-17T17:59:25Z) - Adapting LLMs to Hebrew: Unveiling DictaLM 2.0 with Enhanced Vocabulary and Instruction Capabilities [2.047424180164312]
Hebrewのような低リソース言語での大規模言語モデル(LLM)のトレーニングには、ユニークな課題がある。
我々はDictaLM2.0とDictaLM2.0-Instructを紹介した。
論文 参考訳(メタデータ) (2024-07-09T17:51:37Z) - Jais and Jais-chat: Arabic-Centric Foundation and Instruction-Tuned Open
Generative Large Language Models [57.76998376458017]
私たちはJaisとJais-chatを紹介します。これは、最先端のアラビア中心の新たな基礎であり、命令で調整されたオープンな生成型大言語モデル(LLMs)です。
モデルはGPT-3デコーダのみのアーキテクチャに基づいており、アラビア語と英語のテキストが混在している。
本稿では、トレーニング、チューニング、安全性アライメント、モデルの評価について詳述する。
論文 参考訳(メタデータ) (2023-08-30T17:07:17Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。