論文の概要: OpenThaiGPT 1.6 and R1: Thai-Centric Open Source and Reasoning Large Language Models
- arxiv url: http://arxiv.org/abs/2504.01789v1
- Date: Wed, 02 Apr 2025 14:55:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:22:36.228206
- Title: OpenThaiGPT 1.6 and R1: Thai-Centric Open Source and Reasoning Large Language Models
- Title(参考訳): OpenThaiGPT 1.6とR1: タイ中心のオープンソースと大規模言語モデルの推論
- Authors: Sumeth Yuenyong, Thodsaporn Chay-intr, Kobkrit Viriyayudhakorn,
- Abstract要約: OTG-1.6はタスク・アリストメティクス・モデルを組み合わせて広範囲に一般化し、OTG-R1はマルチステージ・トレーニングとLess-Is-More Reasoning hypothesis (LIMO)を統合して高度な推論を行う。
ベンチマーク評価は、タイ語のタスク間で優れたパフォーマンスを示し、大規模なオープンソースであるタイのLLMに対して競争力を発揮する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: We present OpenThaiGPT 1.6 and R1 (OTG-1.6 and OTG-R1), Thai-centric Large Language Models (LLMs) developed through distinct methodologies to enhance generalization and reasoning capabilities. OTG-1.6 employs Task Arithmetic model merging for broad generalization, while OTG-R1 integrates multi-stage training with the Less-Is-More Reasoning Hypothesis (LIMO) for advanced reasoning. Benchmark evaluations demonstrate superior performance across Thai language tasks, achieving competitive results against larger-scale open-source Thai LLMs. This paper details the proposed models, training processes, benchmarks, and results, highlighting improvements over previous models and establishing new performance standards for Thai-centric LLMs.
- Abstract(参考訳): 本稿では,タイ語中心の大規模言語モデル (LLM) である OpenThaiGPT 1.6 と R1 (OTG-1.6 と OTG-R1) を,一般化と推論能力を高めるために,異なる手法を用いて開発した。
OTG-1.6はタスク・アリストメティクス・モデルを組み合わせて広範囲に一般化し、OTG-R1はマルチステージ・トレーニングとLess-Is-More Reasoning hypothesis (LIMO)を統合して高度な推論を行う。
ベンチマーク評価は、タイ語のタスク間で優れたパフォーマンスを示し、大規模なオープンソースであるタイのLLMに対して競争力を発揮する。
本稿では,提案したモデル,トレーニングプロセス,ベンチマーク,結果について詳述し,従来のモデルに比較して改善点を強調し,タイ中心LLMの新たな性能基準を確立する。
関連論文リスト
- Typhoon T1: An Open Thai Reasoning Model [12.076338505539194]
推論モデルは、最終回答に到達する前に、長いチェーンの思考を生成する。
台風T1号はタイのオープン推論モデルを開発するためのオープンな取り組みを提示している。
論文 参考訳(メタデータ) (2025-02-13T07:55:54Z) - QueEn: A Large Language Model for Quechua-English Translation [20.377876059048692]
本稿では,Retrieval-Augmented Generation(RAG)とパラメータ効率のよい微調整技術を組み合わせた,ケチュア英訳の新しい手法であるQueEnを提案する。
BLEUスコアは標準GPTモデルの1.5に対して17.6である。
論文 参考訳(メタデータ) (2024-12-06T17:04:21Z) - OpenThaiGPT 1.5: A Thai-Centric Open Source Large Language Model [0.0]
OpenThaiGPT 1.5はQwen v2.5をベースにした高度なタイ語チャットモデルである。
このレポートは、モデルの開発、能力、パフォーマンスに関する工学的な視点を提供する。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - A Comparative Study on Reasoning Patterns of OpenAI's o1 Model [69.08287909042421]
OpenAIのo1モデルは、ほとんどのデータセットで最高のパフォーマンスを実現しています。
また、いくつかの推論ベンチマークについて詳細な分析を行う。
論文 参考訳(メタデータ) (2024-10-17T15:09:03Z) - A Systematic Evaluation of Large Language Models for Natural Language Generation Tasks [30.54635848057259]
本稿では、よく知られた高性能な大規模言語モデル(LLM)の包括的な評価を行う。
対話生成とテキスト要約を含む英語と中国語のデータセットを選択する。
本研究は, 詳細な分析を伴って, 両自動検査の結果を報告する。
論文 参考訳(メタデータ) (2024-05-16T16:56:54Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Multilingual E5 Text Embeddings: A Technical Report [63.503320030117145]
異なるサイズの3つの埋め込みモデルを提供し、推論効率と埋め込み品質のバランスを提供する。
そこで我々は,新しい命令調整型埋め込みモデルを導入し,その性能は類似サイズの最先端の英語のみのモデルと同等である。
論文 参考訳(メタデータ) (2024-02-08T13:47:50Z) - Advancing the Evaluation of Traditional Chinese Language Models: Towards
a Comprehensive Benchmark Suite [17.764840326809797]
本稿では,既存の英語データセットを活用し,中国語の言語モデルを評価するための新しいベンチマークセットを提案する。
これらのベンチマークには、コンテキスト質問、要約、分類、テーブル理解など、幅広いタスクが含まれている。
本稿では,これらのベンチマークを用いて,GPT-3.5,台湾-LLaMa-v1.0,モデル7-Cの性能評価を行った。
論文 参考訳(メタデータ) (2023-09-15T14:52:23Z) - Large Language Models in the Workplace: A Case Study on Prompt
Engineering for Job Type Classification [58.720142291102135]
本研究では,実環境における職種分類の課題について検討する。
目標は、英語の求職が卒業生やエントリーレベルの地位に適切かどうかを判断することである。
論文 参考訳(メタデータ) (2023-03-13T14:09:53Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - Russian SuperGLUE 1.1: Revising the Lessons not Learned by Russian NLP
models [53.95094814056337]
本稿では,ロシアNLPモデルのGLUEを改良したベンチマークである,ロシアのSuperGLUE 1.1を提案する。
新バージョンには、技術的、ユーザエクスペリエンス、方法論的改善が多数含まれている。
我々は,ロシアのSuperGLUEをオープンソースモデルMOROCCOの産業的評価のためのフレームワークに統合する。
論文 参考訳(メタデータ) (2022-02-15T23:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。