論文の概要: Advancing Language Models for Code-related Tasks
- arxiv url: http://arxiv.org/abs/2601.04526v1
- Date: Thu, 08 Jan 2026 02:48:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.002995
- Title: Advancing Language Models for Code-related Tasks
- Title(参考訳): コード関連タスクのための言語モデルの改善
- Authors: Zhao Tian,
- Abstract要約: 言語モデル(LM)の最近の進歩は、様々なソフトウェア工学のタスクにおいて大きな進歩をもたらした。
しかし、既存のLMはデータ品質、モデルアーキテクチャ、推論能力の制限のために複雑なプログラミングシナリオに苦戦している。
本研究は3つの相補的な方向を通してこれらの課題を体系的に解決する。
- 参考スコア(独自算出の注目度): 3.1580161263510855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in language models (LMs) have driven significant progress in various software engineering tasks. However, existing LMs still struggle with complex programming scenarios due to limitations in data quality, model architecture, and reasoning capability. This research systematically addresses these challenges through three complementary directions: (1) improving code data quality with a code difference-guided adversarial augmentation technique (CODA) and a code denoising technique (CodeDenoise); (2) enhancing model architecture via syntax-guided code LMs (LEAM and LEAM++); and (3) advancing model reasoning with a prompting technique (muFiX) and an agent-based technique (Specine). These techniques aim to promote the practical adoption of LMs in software development and further advance intelligent software engineering.
- Abstract(参考訳): 言語モデル(LM)の最近の進歩は、様々なソフトウェア工学のタスクにおいて大きな進歩をもたらした。
しかし、既存のLMはデータ品質、モデルアーキテクチャ、推論能力の制限のために複雑なプログラミングシナリオに苦戦している。
本研究は,(1)コード差分誘導逆数拡張技術(CODA)と(CodeDenoise)によるコードデータ品質の向上,(2)構文誘導型コードLM(LEAMおよびLEAM++)によるモデルアーキテクチャの強化,(3)プロンプト技術(muFiX)とエージェントベース技術(Specine)によるモデル推論の進展,という3つの相補的な方向性を通じて,これらの課題を体系的に解決する。
これらの技術は、ソフトウェア開発におけるLMの実践的採用を促進し、より高度なインテリジェントなソフトウェア工学を促進することを目的としている。
関連論文リスト
- From Code Foundation Models to Agents and Applications: A Practical Guide to Code Intelligence [150.3696990310269]
大規模言語モデル(LLM)は、自然言語記述を直接関数コードに変換することによって、自動ソフトウェア開発を変革した。
コードLLMに関する総合的な合成と実践的ガイド(一連の解析および探索実験)を提供する。
一般LLM(GPT-4, Claude, LLaMA)とコード特殊化LLM(StarCoder, Code LLaMA, DeepSeek-Coder, QwenCoder)のコード機能の解析を行う。
論文 参考訳(メタデータ) (2025-11-23T17:09:34Z) - A Survey of Vibe Coding with Large Language Models [93.88284590533242]
視覚符号化(Vibe Coding)は、開発者が成果観察を通じてAI生成の実装を検証する開発手法である。
変革の可能性にもかかわらず、この創発的パラダイムの有効性は未解明のままである。
この調査は、大規模な言語モデルによるVibe Codingの総合的かつ体系的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-10-14T11:26:56Z) - A Survey on Code Generation with LLM-based Agents [61.474191493322415]
大規模言語モデル(LLM)を利用したコード生成エージェントは、ソフトウェア開発パラダイムに革命をもたらしている。
LLMは3つのコア特徴によって特徴づけられる。
本稿では,LLMに基づくコード生成エージェントの分野を体系的に調査する。
論文 参考訳(メタデータ) (2025-07-31T18:17:36Z) - Verbal Process Supervision Elicits Better Coding Agents [0.9558392439655016]
この研究は、言語プロセス監視(VPS)によって強化されたコード理解・推論エージェントであるCURAを導入している。
CURAはBigCodeBenchのような挑戦的なベンチマークでベースラインモデルよりも3.65%改善されている。
論文 参考訳(メタデータ) (2025-03-24T09:48:59Z) - Do Advanced Language Models Eliminate the Need for Prompt Engineering in Software Engineering? [18.726229967976316]
本稿では,高度大言語モデル (LLM) の文脈における様々な迅速な工学的手法を再評価する。
以上の結果から, 先進モデルに適用した場合, 先進モデルに適用した場合, 早期のLLM開発技術により, メリットが低下したり, 性能が低下する可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-04T13:56:37Z) - Augmenting software engineering with AI and developing it further towards AI-assisted model-driven software engineering [0.0]
本稿は,AIを活用したソフトウェア工学の現状を概説し,それに対応する分類学であるai4seを開発した。
ソフトウェア開発におけるAI支援型ビッグデータのビジョンは、両方のアプローチに固有の利点を活かすことを目的としている。
論文 参考訳(メタデータ) (2024-09-26T16:49:57Z) - SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。