論文の概要: InCoder-32B: Code Foundation Model for Industrial Scenarios
- arxiv url: http://arxiv.org/abs/2603.16790v1
- Date: Tue, 17 Mar 2026 17:01:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.436962
- Title: InCoder-32B: Code Foundation Model for Industrial Scenarios
- Title(参考訳): InCoder-32B:産業シナリオのためのコード基盤モデル
- Authors: Jian Yang, Wei Zhang, Jiajun Wu, Junhang Cheng, Shawn Guo, Haowen Wang, Weicheng Gu, Yaxin Du, Joseph Li, Fanglin Xu, Yizhi Li, Lin Jing, Yuanbo Wang, Yuhan Gao, Ruihao Gong, Chuan Hao, Ran Tao, Aishan Liu, Tuney Zheng, Ganqu Cui, Zhoujun Li, Mingjie Tang, Chenghua Lin, Wayne Xin Zhao, Xianglong Liu, Ming Zhou, Bryan Dai, Weifeng Lv,
- Abstract要約: InCoder-32B(Industrial-Coder-32B)を導入し,チップ設計,GPUカーネル最適化,組み込みシステム,コンパイラ最適化,3Dモデリングなどのコードインテリジェンスを統合する。
InCoder-32Bは、産業領域にまたがる強力なオープンソースベースラインを確立しながら、一般的なタスクにおいて高い競争力を発揮する。
- 参考スコア(独自算出の注目度): 95.28947955949296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent code large language models have achieved remarkable progress on general programming tasks. Nevertheless, their performance degrades significantly in industrial scenarios that require reasoning about hardware semantics, specialized language constructs, and strict resource constraints. To address these challenges, we introduce InCoder-32B (Industrial-Coder-32B), the first 32B-parameter code foundation model unifying code intelligence across chip design, GPU kernel optimization, embedded systems, compiler optimization, and 3D modeling. By adopting an efficient architecture, we train InCoder-32B from scratch with general code pre-training, curated industrial code annealing, mid-training that progressively extends context from 8K to 128K tokens with synthetic industrial reasoning data, and post-training with execution-grounded verification. We conduct extensive evaluation on 14 mainstream general code benchmarks and 9 industrial benchmarks spanning 4 specialized domains. Results show InCoder-32B achieves highly competitive performance on general tasks while establishing strong open-source baselines across industrial domains.
- Abstract(参考訳): 最近のコード大言語モデルは、一般的なプログラミングタスクにおいて顕著な進歩を遂げている。
それでも、ハードウェアのセマンティクス、特殊な言語構成、厳格なリソース制約に関する推論を必要とする産業シナリオでは、パフォーマンスが著しく低下する。
InCoder-32B(Industrial-Coder-32B)は、チップ設計、GPUカーネル最適化、組み込みシステム、コンパイラ最適化、および3Dモデリングにおけるコードインテリジェンスを統合する最初の32Bパラメータコード基盤モデルである。
効率的なアーキテクチャを採用することで、インコーダ-32Bをスクラッチからトレーニングし、一般的なコード事前トレーニング、キュレートされたインダストリアルコードアニール、コンテクストを8Kから128Kのトークンに段階的に拡張するミドルトレーニング、そして実行地上検証でトレーニングします。
4つの専門ドメインにまたがる14の主流の汎用コードベンチマークと9の産業ベンチマークに対して、広範な評価を行う。
結果から,InCoder-32Bは,産業領域にまたがる強力なオープンソースベースラインを確立しつつ,一般的なタスクにおいて高い競争力を発揮することが示された。
関連論文リスト
- CRPE: Expanding The Reasoning Capability of Large Language Model for Code Generation [5.63821063617385]
CRPE(Code Reasoning Process Enhancer)は、データ合成とモデルトレーニングのためのフレームワークである。
我々は,コード生成タスクの大幅な改善を示す拡張COTコーダを開発した。
Qwen2.5-Coder-32B-BaseをベースとしたCOT-Coder-32B-StepDPOは,パス@1精度35.08で優れた性能を示し,ベンチマークではGPT4Oを上回った。
論文 参考訳(メタデータ) (2025-05-15T08:13:45Z) - CodeTree: Agent-guided Tree Search for Code Generation with Large Language Models [106.11371409170818]
大規模言語モデル(LLM)は、生成されたコードを自己定義し、自律的に改善する機能を持つエージェントとして機能する。
コード生成プロセスの異なる段階における探索空間を効率的に探索するLLMエージェントのためのフレームワークであるCodeTreeを提案する。
具体的には、異なるコーディング戦略を明示的に探求し、対応するコーディングソリューションを生成し、その後、ソリューションを洗練するために統合されたツリー構造を採用しました。
論文 参考訳(メタデータ) (2024-11-07T00:09:54Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - LiveCodeBench: Holistic and Contamination Free Evaluation of Large Language Models for Code [34.03774442237902]
コード関連アプリケーションに適用される大規模言語モデルは、顕著な分野として現れている。
既存の評価ベンチマーク(HumanEval、MBPPなど)は、もはやその能力を評価するには不十分である。
コードに対するLLMの包括的で汚染のない評価手法であるLiveCodeBenchを提案する。
論文 参考訳(メタデータ) (2024-03-12T17:58:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。