論文の概要: EXAONE 4.0: Unified Large Language Models Integrating Non-reasoning and Reasoning Modes
- arxiv url: http://arxiv.org/abs/2507.11407v1
- Date: Tue, 15 Jul 2025 15:24:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.170156
- Title: EXAONE 4.0: Unified Large Language Models Integrating Non-reasoning and Reasoning Modes
- Title(参考訳): EXAONE 4.0:非共振モードと共振モードを統合した統一大言語モデル
- Authors: LG AI Research, :, Kyunghoon Bae, Eunbi Choi, Kibong Choi, Stanley Jungkyu Choi, Yemuk Choi, Kyubeen Han, Seokhee Hong, Junwon Hwang, Taewan Hwang, Joonwon Jang, Hyojin Jeon, Kijeong Jeon, Gerrard Jeongwon Jo, Hyunjik Jo, Jiyeon Jung, Euisoon Kim, Hyosang Kim, Jihoon Kim, Joonkee Kim, Seonghwan Kim, Soyeon Kim, Sunkyoung Kim, Yireun Kim, Yongil Kim, Youchul Kim, Edward Hwayoung Lee, Gwangho Lee, Haeju Lee, Honglak Lee, Jinsik Lee, Kyungmin Lee, Sangha Park, Young Min Paik, Yongmin Park, Youngyong Park, Sanghyun Seo, Sihoon Yang, Heuiyeen Yeen, Sihyuk Yi, Hyeongu Yun,
- Abstract要約: EXAONE 4.0は、EXAONE 3.5の優れた使いやすさとEXAONE Deepの高度な推論能力の両方を達成するために、非推論モードと推論モードを統合している。
EXAONE 4.0シリーズは、高性能に最適化された中型32Bモデルと、オンデバイスアプリケーション用に設計された小型1.2Bモデルである。
- 参考スコア(独自算出の注目度): 42.31740630042654
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This technical report introduces EXAONE 4.0, which integrates a Non-reasoning mode and a Reasoning mode to achieve both the excellent usability of EXAONE 3.5 and the advanced reasoning abilities of EXAONE Deep. To pave the way for the agentic AI era, EXAONE 4.0 incorporates essential features such as agentic tool use, and its multilingual capabilities are extended to support Spanish in addition to English and Korean. The EXAONE 4.0 model series consists of two sizes: a mid-size 32B model optimized for high performance, and a small-size 1.2B model designed for on-device applications. The EXAONE 4.0 demonstrates superior performance compared to open-weight models in its class and remains competitive even against frontier-class models. The models are publicly available for research purposes and can be easily downloaded via https://huggingface.co/LGAI-EXAONE.
- Abstract(参考訳): 本技術報告では,EXAONE 3.5の優れたユーザビリティとEXAONE Deepの高度な推論能力の両方を達成するために,非推論モードと推論モードを統合したEXAONE 4.0を紹介する。
エージェントAI時代への道を開くために、EXAONE 4.0はエージェントツールの使用のような不可欠な特徴を取り入れており、その多言語機能は英語と韓国語に加えてスペイン語をサポートするように拡張されている。
EXAONE 4.0シリーズは、高性能に最適化された中型32Bモデルと、オンデバイスアプリケーション用に設計された小型1.2Bモデルである。
EXAONE 4.0は、そのクラスのオープンウェイトモデルよりも優れた性能を示し、フロンティアクラスのモデルでさえ競争力を維持している。
モデルは研究目的で公開されており、https://huggingface.co/LGAI-EXAONEで簡単にダウンロードできる。
関連論文リスト
- EXAONE Deep: Reasoning Enhanced Language Models [35.326172288018505]
本稿では,様々な推論タスクにおいて優れた機能を示すEXAONE Deepシリーズについて述べる。
我々は、思考プロセスの長いストリームを含む推論特化データセットに基づいてモデルをトレーニングする。
論文 参考訳(メタデータ) (2025-03-16T14:39:33Z) - Phi-4-Mini Technical Report: Compact yet Powerful Multimodal Language Models via Mixture-of-LoRAs [195.24565517943802]
我々はPhi-4-MiniとPhi-4-Multimodalを導入し、コンパクトだが高機能な言語とマルチモーダルモデルを提案する。
Phi-4-Miniは、高品質なウェブおよび合成データに基づいて訓練された3.8ビリオンパラメータ言語モデルである。
Phi-4-Multimodalは、テキスト、ビジョン、音声、音声の入力モーダルを単一のモデルに統合するマルチモーダルモデルである。
論文 参考訳(メタデータ) (2025-03-03T17:05:52Z) - EXAONE 3.5: Series of Large Language Models for Real-world Use Cases [35.04562823885241]
EXAONE 3.5言語モデルは32B、7.8B、2.4Bの3つの構成で提供されている。
商用利用については、LG AI Researchの公式コンタクトポイントを参照してください。
論文 参考訳(メタデータ) (2024-12-06T08:53:46Z) - Aya Expanse: Combining Research Breakthroughs for a New Multilingual Frontier [72.5652085347547]
8Bおよび32Bパラメータ多言語モデルの新世代であるAya Expanseモデルファミリを導入する。
Cohere For AIとCohereでの数年間の研究を活用することで、Aya Expanseは多言語パフォーマンスにおける新たな最先端技術を確立している。
Aya Expanse 8B と 32B が主要なオープンウェイトモデルより優れていることを示すために,23言語に翻訳された Arena-Hard-Auto データセットの評価を行った。
論文 参考訳(メタデータ) (2024-12-05T15:41:06Z) - Aria: An Open Multimodal Native Mixture-of-Experts Model [45.32344127542739]
Ariaはオープンなマルチモーダルネイティブモデルであり、様々なマルチモーダル、言語、コーディングタスクで最高のパフォーマンスを発揮する。
Pixtral-12BとLlama3.2-11Bを上回り、様々なマルチモーダルタスクにおける最高のプロプライエタリモデルと競合する。
私たちは、Ariaの実際のアプリケーションへの導入と適応を容易にするパイプラインとともに、モデルの重みをオープンソースにしています。
論文 参考訳(メタデータ) (2024-10-08T12:44:57Z) - EXAONE 3.0 7.8B Instruction Tuned Language Model [41.95996640625627]
EXAONE 3.0命令調整言語モデルは、Large Language Models (LLMs) の最初のオープンモデルである。
EXAONE 3.0は、同じ大きさの他の最先端のオープンモデルに対して、命令追従機能を備えた非常に競争力のある実世界のパフォーマンスを示す。
比較分析の結果,EXAONE 3.0は韓国では特に優れており,一般的なタスクや複雑な推論において魅力的な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2024-08-07T04:38:38Z) - Beyond English-Centric Bitexts for Better Multilingual Language
Representation Learning [99.42850643947439]
我々は、新しいサンプリング戦略と組み合わさって、英語中心のbitextsを超えることによって、モデルサイズにおけるパフォーマンスが大幅に向上することを示す。
XY-LENT XL は XLM-RXXL より優れ,mT5 XXL との競合性能は5倍,6倍小さい。
論文 参考訳(メタデータ) (2022-10-26T17:16:52Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。