論文の概要: EXAONE 3.5: Series of Large Language Models for Real-world Use Cases
- arxiv url: http://arxiv.org/abs/2412.04862v2
- Date: Mon, 09 Dec 2024 09:31:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:58.284827
- Title: EXAONE 3.5: Series of Large Language Models for Real-world Use Cases
- Title(参考訳): EXAONE 3.5: 実世界のユースケースを対象とした大規模言語モデルのシリーズ
- Authors: LG AI Research, Soyoung An, Kyunghoon Bae, Eunbi Choi, Kibong Choi, Stanley Jungkyu Choi, Seokhee Hong, Junwon Hwang, Hyojin Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Yountae Jung, Hyosang Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Yongil Kim, Youchul Kim, Edward Hwayoung Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Woohyung Lim, Sangha Park, Sooyoun Park, Yongmin Park, Sihoon Yang, Heuiyeen Yeen, Hyeongu Yun,
- Abstract要約: EXAONE 3.5言語モデルは32B、7.8B、2.4Bの3つの構成で提供されている。
商用利用については、LG AI Researchの公式コンタクトポイントを参照してください。
- 参考スコア(独自算出の注目度): 35.04562823885241
- License:
- Abstract: This technical report introduces the EXAONE 3.5 instruction-tuned language models, developed and released by LG AI Research. The EXAONE 3.5 language models are offered in three configurations: 32B, 7.8B, and 2.4B. These models feature several standout capabilities: 1) exceptional instruction following capabilities in real-world scenarios, achieving the highest scores across seven benchmarks, 2) outstanding long-context comprehension, attaining the top performance in four benchmarks, and 3) competitive results compared to state-of-the-art open models of similar sizes across nine general benchmarks. The EXAONE 3.5 language models are open to anyone for research purposes and can be downloaded from https://huggingface.co/LGAI-EXAONE. For commercial use, please reach out to the official contact point of LG AI Research: contact_us@lgresearch.ai.
- Abstract(参考訳): 本技術報告では,LG AI Research が開発した EXAONE 3.5 命令調整言語モデルを紹介する。
EXAONE 3.5言語モデルは32B、7.8B、2.4Bの3つの構成で提供されている。
これらのモデルにはいくつかの特徴がある。
1) 実世界のシナリオにおいて,7つのベンチマークで最高のスコアを達成できる例外的な命令追従能力。
2) 4つのベンチマークで最高性能を達成した卓越した長文理解
3)9つのベンチマークで同様の大きさの最先端のオープンモデルと比較した。
EXAONE 3.5言語モデルは研究目的で誰でも公開されており、https://huggingface.co/LGAI-EXAONEからダウンロードできる。
商用利用については、LG AI Researchの公式コンタクトポイント、 contact_us@lgresearch.aiを参照してください。
関連論文リスト
- EXAONE 3.0 7.8B Instruction Tuned Language Model [41.95996640625627]
EXAONE 3.0命令調整言語モデルは、Large Language Models (LLMs) の最初のオープンモデルである。
EXAONE 3.0は、同じ大きさの他の最先端のオープンモデルに対して、命令追従機能を備えた非常に競争力のある実世界のパフォーマンスを示す。
比較分析の結果,EXAONE 3.0は韓国では特に優れており,一般的なタスクや複雑な推論において魅力的な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2024-08-07T04:38:38Z) - Qwen2 Technical Report [141.0766756297144]
本稿では,我々の大規模言語モデルと大規模マルチモーダルモデルへの最新の追加であるQwen2シリーズを紹介する。
Qwen2は、前身のQwen1.5を含む、これまでのほとんどのオープンウェイトモデルを超え、プロプライエタリモデルと比較して競争力のある性能を示している。
Qwen2は、英語、中国語、スペイン語、フランス語、ドイツ語、アラビア語、ロシア語、韓国語、日本語、タイ語、ベトナム語など、約30の言語で熟練した堅牢な多言語機能を示している。
論文 参考訳(メタデータ) (2024-07-15T12:35:42Z) - Multi-Task Domain Adaptation for Language Grounding with 3D Objects [25.975947369817487]
本稿では,3次元オブジェクトを用いたDA4LG(Domain Adaptation for Language Grounding)という新しい手法を提案する。
具体的には、DA4LGは、視覚言語アライメントを実現するために、マルチタスク学習を備えたビジュアルアダプタモジュールで構成されている。
実験の結果,DA4LGは視覚的および非視覚的言語記述間で競合的に機能することが示された。
論文 参考訳(メタデータ) (2024-07-03T06:47:58Z) - Phi-3 Technical Report: A Highly Capable Language Model Locally on Your Phone [289.9290405258526]
我々は3.3兆のトークンでトレーニングされた38億のパラメータ言語モデルであるphi-3-miniを紹介する。
MMLUでは69%、MTベンチでは8.38である。
本稿では, phi-3.5-mini, phi-3.5-MoE, phi-3.5-Visionの3モデルを紹介する。
論文 参考訳(メタデータ) (2024-04-22T14:32:33Z) - Battle of the Large Language Models: Dolly vs LLaMA vs Vicuna vs Guanaco
vs Bard vs ChatGPT -- A Text-to-SQL Parsing Comparison [18.092211166785397]
近年、GPT-3.5やGPT-4に近い性能を主張するモデルが多数出現している。
人気の高い6つの大言語モデルを互いに比較し、9つのベンチマークデータセットでテキスト対パース機能を体系的に評価します。
オープンソースモデルはGPT-3.5のようなクローズドソースモデルによって達成された性能を著しく低下させ、これらのモデル間のパフォーマンスギャップを埋めるためのさらなる作業の必要性を強調した。
論文 参考訳(メタデータ) (2023-10-16T08:52:41Z) - Baichuan 2: Open Large-scale Language Models [51.56361715162972]
我々は、70億と13億のパラメータを含む大規模な多言語言語モデルであるBaichuan 2を、2.6兆のトークン上でスクラッチからトレーニングする。
Baichuan 2は、MMLU、CMMLU、GSM8K、HumanEvalなどの公開ベンチマークで、同様のサイズの他のオープンソースモデルにマッチするか、より優れています。
論文 参考訳(メタデータ) (2023-09-19T04:13:22Z) - How Far Can Camels Go? Exploring the State of Instruction Tuning on Open
Resources [117.6496550359768]
この研究は、オープンな命令追従データセットにおける命令チューニング言語モデルの最近の進歩を探求する。
我々は、12の命令データセットに基づいて訓練された6.7Bから65Bのパラメータを含む、命令調整されたモデルの大規模なセットを提供する。
それらの事実的知識、推論、多言語性、コーディング、そしてその後に続くオープン・エンド・インストラクションに基づいて評価する。
論文 参考訳(メタデータ) (2023-06-07T19:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。