論文の概要: Code Digital Twin: Empowering LLMs with Tacit Knowledge for Complex Software Development
- arxiv url: http://arxiv.org/abs/2503.07967v3
- Date: Mon, 27 Oct 2025 12:13:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.42923
- Title: Code Digital Twin: Empowering LLMs with Tacit Knowledge for Complex Software Development
- Title(参考訳): Code Digital Twin: 複雑なソフトウェア開発のための暗黙の知識によるLLMの強化
- Authors: Xin Peng, Chong Wang,
- Abstract要約: ソフトウェアモデルと大規模言語モデルの両方の観点から、課題を特定します。
ソフトウェアの物理層と概念層の両方をモデル化するフレームワークであるCode Digital Twinを提案する。
私たちのビジョンは、AIの進歩とエンタープライズソフトウェアの現実の橋渡しと位置づけています。
- 参考スコア(独自算出の注目度): 8.821206496273842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in large language models (LLMs) have demonstrated strong capabilities in software engineering tasks, raising expectations of revolutionary productivity gains. However, enterprise software development is largely driven by incremental evolution, where challenges extend far beyond routine coding and depend critically on tacit knowledge, including design decisions at different levels and historical trade-offs. To achieve effective AI-powered support for complex software development, we should align emerging AI capabilities with the practical realities of enterprise development. To this end, we systematically identify challenges from both software and LLM perspectives. Alongside these challenges, we outline opportunities where AI and structured knowledge frameworks can enhance decision-making in tasks such as issue localization and impact analysis. To address these needs, we propose the Code Digital Twin, a living framework that models both the physical and conceptual layers of software, preserves tacit knowledge, and co-evolves with the codebase. By integrating hybrid knowledge representations, multi-stage extraction pipelines, incremental updates, LLM-empowered applications, and human-in-the-loop feedback, the Code Digital Twin transforms fragmented knowledge into explicit and actionable representations. Our vision positions it as a bridge between AI advancements and enterprise software realities, providing a concrete roadmap toward sustainable, intelligent, and resilient development and evolution of ultra-complex systems.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、ソフトウェア工学のタスクにおいて強力な能力を示し、革命的な生産性向上への期待を高めている。
しかし、エンタープライズソフトウェア開発は、主に漸進的な進化によって引き起こされる。そこでは、課題は日常的なコーディングを超えて、さまざまなレベルでの設計決定や歴史的なトレードオフなど、暗黙の知識に依存している。
複雑なソフトウェア開発にAIを活用した効果的なサポートを実現するためには、新興のAI能力とエンタープライズ開発の現実を整合させる必要がある。
この目的のために,ソフトウェアとLLMの両方の観点から,課題を体系的に識別する。
これらの課題に加えて、AIと構造化知識フレームワークが課題のローカライゼーションや影響分析といったタスクにおける意思決定を強化する機会を概説する。
これらのニーズに対処するために、我々は、ソフトウェアの物理層と概念層の両方をモデル化し、暗黙の知識を保持し、コードベースと共進化する生きたフレームワークであるCode Digital Twinを提案する。
ハイブリッドな知識表現、多段階抽出パイプライン、インクリメンタルなアップデート、LLMを利用したアプリケーション、ループ内のフィードバックを統合することで、Code Digital Twinは、断片化された知識を明示的で実行可能な表現に変換する。
私たちのビジョンでは、AIの進歩とエンタープライズソフトウェアの現実の橋渡しとして、超複雑なシステムの持続的でインテリジェントでレジリエントな開発と進化に向けた具体的なロードマップを提供しています。
関連論文リスト
- An Empirical Study on the Effectiveness of Large Language Models for Binary Code Understanding [50.17907898478795]
本研究では,現実のリバースエンジニアリングシナリオにおけるLarge Language Models(LLM)の有効性を評価するためのベンチマークを提案する。
評価の結果、既存のLLMはバイナリコードをある程度理解でき、それによってバイナリコード解析の効率が向上することが明らかとなった。
論文 参考訳(メタデータ) (2025-04-30T17:02:06Z) - Code to Think, Think to Code: A Survey on Code-Enhanced Reasoning and Reasoning-Driven Code Intelligence in LLMs [53.00384299879513]
大規模言語モデル(LLM)では、コードと推論が互いに強化される。
コードは検証可能な実行パスを提供し、論理的な分解を強制し、実行時の検証を可能にする。
我々は,このシナジーを強化するために,重要な課題を特定し,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2025-02-26T18:55:42Z) - Boost, Disentangle, and Customize: A Robust System2-to-System1 Pipeline for Code Generation [58.799397354312596]
大規模言語モデル(LLM)は、様々な領域、特にシステム1タスクにおいて顕著な機能を示した。
System2-to-System1法に関する最近の研究が急増し、推論時間計算によるシステム2の推論知識が探索された。
本稿では,システム2タスクの代表的タスクであるコード生成に注目し,主な課題を2つ挙げる。
論文 参考訳(メタデータ) (2025-02-18T03:20:50Z) - Specifications: The missing link to making the development of LLM systems an engineering discipline [65.10077876035417]
我々は、構造化出力、プロセスの監督、テストタイム計算など、これまでの分野の進歩について論じる。
モジュール型かつ信頼性の高いLCMシステムの開発に向けた研究の今後の方向性について概説する。
論文 参考訳(メタデータ) (2024-11-25T07:48:31Z) - Codellm-Devkit: A Framework for Contextualizing Code LLMs with Program Analysis Insights [9.414198519543564]
codellm-devkit (以下, CLDK') は,プログラム解析のプロセスを大幅に単純化したオープンソースライブラリである。
CLDKは開発者に対して直感的でユーザフレンドリなインターフェースを提供しています。
論文 参考訳(メタデータ) (2024-10-16T20:05:59Z) - CodeMMLU: A Multi-Task Benchmark for Assessing Code Understanding Capabilities of CodeLLMs [9.649864680130781]
提案するCodeMMLUは,CodeLLMにおけるソフトウェア深度とコード理解度を評価するためのベンチマークである。
CodeMMLUには、コード分析、欠陥検出、ソフトウェアエンジニアリング原則といったタスクを含む、さまざまなドメインからソースされた10,000以上の質問が含まれている。
評価の結果,最先端モデルでさえ,CodeMMLUでは重大な課題に直面していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-02T20:04:02Z) - Code-Survey: An LLM-Driven Methodology for Analyzing Large-Scale Codebases [3.8153349016958074]
我々は,大規模規模の探索と解析を目的とした最初のLCM駆動型手法であるCode-Surveyを紹介した。
調査を慎重に設計することで、Code-Surveyはコミット、Eメールなどの構造化されていないデータを、構造化、構造化、分析可能なデータセットに変換する。
これにより、複雑なソフトウェアの進化を定量的に分析し、設計、実装、保守、信頼性、セキュリティに関する貴重な洞察を明らかにすることができる。
論文 参考訳(メタデータ) (2024-09-24T17:08:29Z) - How Far Have We Gone in Binary Code Understanding Using Large Language Models [51.527805834378974]
バイナリコード理解におけるLarge Language Models(LLM)の有効性を評価するためのベンチマークを提案する。
評価の結果、既存のLLMはバイナリコードをある程度理解でき、それによってバイナリコード解析の効率が向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-04-15T14:44:08Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。