論文の概要: OpenJAI-v1.0: An Open Thai Large Language Model
- arxiv url: http://arxiv.org/abs/2510.06847v1
- Date: Wed, 08 Oct 2025 10:12:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.416877
- Title: OpenJAI-v1.0: An Open Thai Large Language Model
- Title(参考訳): OpenJAI-v1.0: タイのオープンな大規模言語モデル
- Authors: Pontakorn Trakuekul, Attapol T. Rutherford, Jullajak Karnjanaekarin, Narongkorn Panitsrisit, Sumana Sumanakul,
- Abstract要約: OpenJAI-v1.0はタイ語と英語のオープンソースの大規模言語モデルである。
当社の作業は、慎重にキュレートされたデータによるパフォーマンス向上に重点を置いています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce OpenJAI-v1.0, an open-source large language model for Thai and English, developed from the Qwen3-14B model. Our work focuses on boosting performance on practical tasks through carefully curated data across three key use cases: instruction following, long-context understanding, and tool use. Evaluation results show that OpenJAI-v1.0 improves on the capabilities of its base model and outperforms other leading open-source Thai models on a diverse suite of benchmarks, while avoiding catastrophic forgetting. OpenJAI-v1.0 is publicly released as another alternative NLP resource for the Thai AI community.
- Abstract(参考訳): 我々は、Qwen3-14Bモデルから開発されたタイ語と英語のためのオープンソースの大規模言語モデルOpenJAI-v1.0を紹介する。
本研究は,3つの主要なユースケース – インストラクションフォロー,長期コンテキスト理解,ツール使用 – に対して慎重にキュレートされたデータを通じて,実践的なタスクのパフォーマンス向上に重点を置いている。
評価の結果、OpenJAI-v1.0はベースモデルの能力を改善し、様々なベンチマークで他の主要なオープンソースタイモデルを上回る性能を示し、破滅的な忘れ込みを避けている。
OpenJAI-v1.0は、タイのAIコミュニティのための代替NLPリソースとして公開されている。
関連論文リスト
- Llama-3-Nanda-10B-Chat: An Open Generative Large Language Model for Hindi [28.979822255004194]
Llama-3-Nanda-10B-Chat(略してNanda)を紹介する。
Nandaは、Llama Proの方法論を利用して、拡張されたトランスフォーマーブロックによる継続的事前トレーニングを取り入れている。
100億のパラメータを持つNandaは、オープンソースのHindiと、同様のスケールのマルチ言語モデルのトップパフォーマンスの1つだ。
論文 参考訳(メタデータ) (2025-04-08T13:16:54Z) - OpenThaiGPT 1.6 and R1: Thai-Centric Open Source and Reasoning Large Language Models [0.0]
OTG-1.6はタスク・アリストメティクス・モデルを組み合わせて広範囲に一般化し、OTG-R1はマルチステージ・トレーニングとLess-Is-More Reasoning hypothesis (LIMO)を統合して高度な推論を行う。
ベンチマーク評価は、タイ語のタスク間で優れたパフォーマンスを示し、大規模なオープンソースであるタイのLLMに対して競争力を発揮する。
論文 参考訳(メタデータ) (2025-04-02T14:55:52Z) - Xmodel-1.5: An 1B-scale Multilingual LLM [4.298869484709548]
2兆のトークンで事前訓練された多言語大言語モデルであるXmodel-1.5を紹介する。
Xmodel-1.5は65,280個のトークンを持つカスタムユニグラムトークンライザを採用し、効率と精度の両方を最適化している。
このモデルは、タイ語、アラビア語、フランス語、中国語、英語など、複数の言語で競合する結果をもたらす。
論文 参考訳(メタデータ) (2024-11-15T10:01:52Z) - OpenThaiGPT 1.5: A Thai-Centric Open Source Large Language Model [0.0]
OpenThaiGPT 1.5はQwen v2.5をベースにした高度なタイ語チャットモデルである。
このレポートは、モデルの開発、能力、パフォーマンスに関する工学的な視点を提供する。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - Navigating Text-to-Image Generative Bias across Indic Languages [53.92640848303192]
本研究ではインドで広く話されているIndic言語に対するテキスト・ツー・イメージ(TTI)モデルのバイアスについて検討する。
これらの言語における主要なTTIモデルの生成的パフォーマンスと文化的関連性を評価し,比較する。
論文 参考訳(メタデータ) (2024-08-01T04:56:13Z) - Vikhr: The Family of Open-Source Instruction-Tuned Large Language Models for Russian [44.13635168077528]
Vikhr (英語: Vikhr) は、ロシア語に特化して設計された、バイリンガルなオープンソースの命令フォローリング LLM のシリーズである。
Vikhrは、適応されたトークン化剤の語彙を特徴とし、全ての重みのトレーニングと指導の継続を行っている。
モデルの重み、命令セット、コードは公開されています。
論文 参考訳(メタデータ) (2024-05-22T18:58:58Z) - What Is Missing in Multilingual Visual Reasoning and How to Fix It [57.37123046817781]
視覚的推論タスクを用いてNLPモデルの多言語・多モーダル機能を評価する。
GPT-4Vのようなプロプライエタリなシステムは、現在このタスクで最高のパフォーマンスを得るが、オープンモデルは比較に遅れている。
LLaVA-v1.5-13Bは13.4%、LLaVA-v1.6-34Bは20.3%、Qwen-VLは16.7%向上した。
論文 参考訳(メタデータ) (2024-03-03T05:45:27Z) - Multilingual E5 Text Embeddings: A Technical Report [63.503320030117145]
異なるサイズの3つの埋め込みモデルを提供し、推論効率と埋め込み品質のバランスを提供する。
そこで我々は,新しい命令調整型埋め込みモデルを導入し,その性能は類似サイズの最先端の英語のみのモデルと同等である。
論文 参考訳(メタデータ) (2024-02-08T13:47:50Z) - Jais and Jais-chat: Arabic-Centric Foundation and Instruction-Tuned Open
Generative Large Language Models [57.76998376458017]
私たちはJaisとJais-chatを紹介します。これは、最先端のアラビア中心の新たな基礎であり、命令で調整されたオープンな生成型大言語モデル(LLMs)です。
モデルはGPT-3デコーダのみのアーキテクチャに基づいており、アラビア語と英語のテキストが混在している。
本稿では、トレーニング、チューニング、安全性アライメント、モデルの評価について詳述する。
論文 参考訳(メタデータ) (2023-08-30T17:07:17Z) - An Open Dataset and Model for Language Identification [84.15194457400253]
マクロ平均F1スコア0.93、偽陽性率0.033を201言語で達成するLIDモデルを提案する。
モデルとデータセットの両方を研究コミュニティに公開しています。
論文 参考訳(メタデータ) (2023-05-23T08:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。