論文の概要: IQuest-Coder-V1 Technical Report
- arxiv url: http://arxiv.org/abs/2603.16733v1
- Date: Tue, 17 Mar 2026 16:15:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.403302
- Title: IQuest-Coder-V1 Technical Report
- Title(参考訳): IQuest-Coder-V1テクニカルレポート
- Authors: Jian Yang, Wei Zhang, Shawn Guo, Zhengmao Ye, Lin Jing, Shark Liu, Yizhi Li, Jiajun Wu, Cening Liu, X. Ma, Yuyang Song, Siwei Wu, Yuwen Li, L. Liao, T. Zheng, Ziling Huang, Zelong Huang, Che Liu, Yan Xing, Renyuan Li, Qingsong Cai, Hanxu Yan, Siyue Wang, Shikai Li, Jason Klein Liu, An Huang, Yongsheng Kang, Jinxing Zhang, Chuan Hao, Haowen Wang, Weicheng Gu, Ran Tao, Mingjie Tang, Peihao Wu, Jianzhou Wang, Xianglong Liu, Weifeng Lv, Bryan Dai,
- Abstract要約: IQuest-Coder-V1 シリーズ-(7B/14B/40B/40B-Loop) は、新しいコード大言語モデル(LLM)のファミリーである。
IQuest-Coder-V1は、コードインテリジェンスの重要な次元にわたる競合モデルの最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 56.045533451719905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we introduce the IQuest-Coder-V1 series-(7B/14B/40B/40B-Loop), a new family of code large language models (LLMs). Moving beyond static code representations, we propose the code-flow multi-stage training paradigm, which captures the dynamic evolution of software logic through different phases of the pipeline. Our models are developed through the evolutionary pipeline, starting with the initial pre-training consisting of code facts, repository, and completion data. Following that, we implement a specialized mid-training stage that integrates reasoning and agentic trajectories in 32k-context and repository-scale in 128k-context to forge deep logical foundations. The models are then finalized with post-training of specialized coding capabilities, which is bifurcated into two specialized paths: the thinking path (utilizing reasoning-driven RL) and the instruct path (optimized for general assistance). IQuest-Coder-V1 achieves state-of-the-art performance among competitive models across critical dimensions of code intelligence: agentic software engineering, competitive programming, and complex tool use. To address deployment constraints, the IQuest-Coder-V1-Loop variant introduces a recurrent mechanism designed to optimize the trade-off between model capacity and deployment footprint, offering an architecturally enhanced path for efficacy-efficiency trade-off. We believe the release of the IQuest-Coder-V1 series, including the complete white-box chain of checkpoints from pre-training bases to the final thinking and instruction models, will advance research in autonomous code intelligence and real-world agentic systems.
- Abstract(参考訳): 本稿では,新しいコード大言語モデル(LLM)であるIQuest-Coder-V1シリーズ(7B/14B/40B/40B-Loop)を紹介する。
静的なコード表現を超えて、パイプラインの異なるフェーズを通じてソフトウェアロジックの動的進化を捉える、コードフロー多段階トレーニングパラダイムを提案する。
私たちのモデルは進化的パイプラインを通じて開発され、コード事実、リポジトリ、補完データからなる最初の事前トレーニングから始まります。
次に,32k-コンテキストで推論とエージェント軌道を,128k-コンテキストでリポジトリスケールを統合して,深い論理的基盤を構築する,特別な中間訓練段階を実装した。
モデルはその後、特別なコーディング能力の訓練を経て、思考経路(推論駆動のRLを活用する)と命令経路(一般的な補助のために最適化される)の2つの特別な経路に分岐する。
IQuest-Coder-V1は、エージェントソフトウェアエンジニアリング、競合プログラミング、複雑なツール使用といった、コードインテリジェンスの重要な側面にわたる競争モデル間の最先端のパフォーマンスを達成する。
デプロイメントの制約に対処するため、IQuest-Coder-V1-Loopは、モデルキャパシティとデプロイメントフットプリント間のトレードオフを最適化するために設計されたリカレントメカニズムを導入し、有効性と効率のトレードオフをアーキテクチャ的に強化したパスを提供する。
IQuest-Coder-V1シリーズのリリースは、トレーニング前のベースから最終的な思考と指導モデルまでのチェックポイントの完全なホワイトボックスチェーンを含む、自律的なコードインテリジェンスと現実世界のエージェントシステムの研究を前進させるだろうと考えています。
関連論文リスト
- Understanding by Reconstruction: Reversing the Software Development Process for LLM Pretraining [66.89012795621349]
大規模言語モデル(LLM)は、複雑なソフトウェア工学に必要な、深く、長期にわたる推論に苦しむことが多い。
本稿では,再構築による理解という,新しいパラダイムを提案する。
マルチエージェントシミュレーションを用いて潜在エージェント軌道を合成するフレームワークを提案する。
論文 参考訳(メタデータ) (2026-03-11T09:23:20Z) - From Code Foundation Models to Agents and Applications: A Practical Guide to Code Intelligence [150.3696990310269]
大規模言語モデル(LLM)は、自然言語記述を直接関数コードに変換することによって、自動ソフトウェア開発を変革した。
コードLLMに関する総合的な合成と実践的ガイド(一連の解析および探索実験)を提供する。
一般LLM(GPT-4, Claude, LLaMA)とコード特殊化LLM(StarCoder, Code LLaMA, DeepSeek-Coder, QwenCoder)のコード機能の解析を行う。
論文 参考訳(メタデータ) (2025-11-23T17:09:34Z) - KAT-Coder Technical Report [48.00975798131211]
KAT-Coderは、中期訓練、監視ファインチューニング(SFT)、強化ファインチューニング(RFT)、強化デプロイ適応(Reinforcement-to-Deployment Adaptation)を含む多段階のカリキュラムを通じて訓練された大規模なエージェントコードモデルである。
これらの段階により、KAT-Coderは堅牢なツール使用信頼性、命令アライメント、長いコンテキスト推論を実現することができる。
論文 参考訳(メタデータ) (2025-10-21T16:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。