論文の概要: Code Digital Twin: Empowering LLMs with Tacit Knowledge for Complex Software Maintenance
- arxiv url: http://arxiv.org/abs/2503.07967v1
- Date: Tue, 11 Mar 2025 01:46:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-12 22:35:51.506693
- Title: Code Digital Twin: Empowering LLMs with Tacit Knowledge for Complex Software Maintenance
- Title(参考訳): Code Digital Twin: 複雑なソフトウェアメンテナンスのための暗黙の知識によるLLMの強化
- Authors: Xin Peng, Chong Wang, Mingwei Liu, Yiling Lou, Yijian Wu,
- Abstract要約: 我々は,暗黙的知識の概念表現である textbfCode Digital Twin の概念とフレームワークを紹介する。
コードデジタルツインは、構造化ソースと非構造化ソースの両方からの知識抽出を組み合わせた方法論を用いて構築される。
- 参考スコア(独自算出の注目度): 9.603528792596348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) have demonstrated promise in software engineering tasks like code completion and generation, their support for the maintenance of complex software systems remains limited. These models often struggle with understanding the tacit knowledge embedded in systems, such as responsibility allocation and collaboration across different modules. To address this gap, we introduce the concept and framework of \textbf{Code Digital Twin}, a conceptual representation of tacit knowledge that captures the concepts, functionalities, and design rationales behind code elements, co-evolving with the software. A code digital twin is constructed using a methodology that combines knowledge extraction from both structured and unstructured sources--such as source code, documentation, and change histories--leveraging LLMs, static analysis tools, and human expertise. This framework can empower LLMs for software maintenance tasks such as issue localization and repository-level code generation by providing tacit knowledge as contexts. Based on the proposed methodology, we explore the key challenges and opportunities involved in the continuous construction and refinement of code digital twin.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コード補完や生成といったソフトウェア工学のタスクにおいて有望であることを示しているが、複雑なソフトウェアシステムのメンテナンスに対するサポートは依然として限られている。
これらのモデルは、責任割り当てや異なるモジュール間の協調など、システムに埋め込まれた暗黙の知識を理解するのに苦労することが多い。
このギャップに対処するために、私たちは、コード要素の背後にある概念、機能、設計の合理性を捉える暗黙の知識の概念表現である、‘textbf{Code Digital Twin}’の概念とフレームワークを紹介します。
ソースコード、ドキュメンテーション、変更履歴など、構造化ソースと非構造化ソースの両方から知識を抽出する方法論を使って、コードデジタルツインを構築します。
このフレームワークは、コンテキストとして暗黙の知識を提供することで、問題ローカライゼーションやリポジトリレベルのコード生成などのソフトウェアメンテナンスタスクにLLMを活用できる。
提案手法に基づいて,デジタルツインの継続的構築と改良に関わる重要な課題と機会について検討する。
関連論文リスト
- Advances and Frontiers of LLM-based Issue Resolution in Software Engineering: A Comprehensive Survey [59.3507264893654]
課題解決は、現実世界の開発に不可欠な複雑なソフトウェアエンジニアリングタスクです。
SWE-benchのようなベンチマークでは、このタスクは大規模言語モデルでは極めて困難であることが判明した。
本稿では,この新興領域を体系的に調査する。
論文 参考訳(メタデータ) (2026-01-15T18:55:03Z) - From Code Foundation Models to Agents and Applications: A Practical Guide to Code Intelligence [150.3696990310269]
大規模言語モデル(LLM)は、自然言語記述を直接関数コードに変換することによって、自動ソフトウェア開発を変革した。
コードLLMに関する総合的な合成と実践的ガイド(一連の解析および探索実験)を提供する。
一般LLM(GPT-4, Claude, LLaMA)とコード特殊化LLM(StarCoder, Code LLaMA, DeepSeek-Coder, QwenCoder)のコード機能の解析を行う。
論文 参考訳(メタデータ) (2025-11-23T17:09:34Z) - Empowering Real-World: A Survey on the Technology, Practice, and Evaluation of LLM-driven Industry Agents [63.03252293761656]
本稿では,大規模言語モデル(LLM)に基づく産業エージェントの技術,応用,評価手法を体系的にレビューする。
エージェント能力の進歩を支える3つの重要な技術柱として,記憶,計画,ツール利用について検討する。
本稿では,デジタル工学,科学的発見,具体的インテリジェンス,協調ビジネス実行,複雑なシステムシミュレーションといった実世界の領域における産業エージェントの応用の概要について述べる。
論文 参考訳(メタデータ) (2025-10-20T12:46:55Z) - Code Digital Twin: Empowering LLMs with Tacit Knowledge for Complex Software Development [8.821206496273842]
ソフトウェアモデルと大規模言語モデルの両方の観点から、課題を特定します。
ソフトウェアの物理層と概念層の両方をモデル化するフレームワークであるCode Digital Twinを提案する。
私たちのビジョンは、AIの進歩とエンタープライズソフトウェアの現実の橋渡しと位置づけています。
論文 参考訳(メタデータ) (2025-10-18T08:17:54Z) - A Survey of Vibe Coding with Large Language Models [93.88284590533242]
視覚符号化(Vibe Coding)は、開発者が成果観察を通じてAI生成の実装を検証する開発手法である。
変革の可能性にもかかわらず、この創発的パラダイムの有効性は未解明のままである。
この調査は、大規模な言語モデルによるVibe Codingの総合的かつ体系的なレビューを初めて提供する。
論文 参考訳(メタデータ) (2025-10-14T11:26:56Z) - Generative AI and the Transformation of Software Development Practices [0.0]
ジェネレーティブAIは、ソフトウェアの設計、記述、保守の方法を変えようとしている。
本稿では,AI支援技術がソフトウェア工学の実践をどのように変化させているかを検討する。
論文 参考訳(メタデータ) (2025-10-12T22:02:10Z) - Vibe Coding as a Reconfiguration of Intent Mediation in Software Development: Definition, Implications, and Research Agenda [3.6109780623192305]
vibeコーディングは、人間と生成AIが協調してソフトウェアアーティファクトを創造する、ソフトウェア開発パラダイムである。
バイブ符号化は人間と機械の労働を再分配することで認知作業を再構成することを示す。
リスクとともに、民主化、加速、システムレバレッジなど、重要な機会を特定します。
論文 参考訳(メタデータ) (2025-07-29T15:44:55Z) - An Empirical Study on the Effectiveness of Large Language Models for Binary Code Understanding [50.17907898478795]
本研究では,現実のリバースエンジニアリングシナリオにおけるLarge Language Models(LLM)の有効性を評価するためのベンチマークを提案する。
評価の結果、既存のLLMはバイナリコードをある程度理解でき、それによってバイナリコード解析の効率が向上することが明らかとなった。
論文 参考訳(メタデータ) (2025-04-30T17:02:06Z) - Code to Think, Think to Code: A Survey on Code-Enhanced Reasoning and Reasoning-Driven Code Intelligence in LLMs [53.00384299879513]
大規模言語モデル(LLM)では、コードと推論が互いに強化される。
コードは検証可能な実行パスを提供し、論理的な分解を強制し、実行時の検証を可能にする。
我々は,このシナジーを強化するために,重要な課題を特定し,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2025-02-26T18:55:42Z) - Boost, Disentangle, and Customize: A Robust System2-to-System1 Pipeline for Code Generation [58.799397354312596]
大規模言語モデル(LLM)は、様々な領域、特にシステム1タスクにおいて顕著な機能を示した。
System2-to-System1法に関する最近の研究が急増し、推論時間計算によるシステム2の推論知識が探索された。
本稿では,システム2タスクの代表的タスクであるコード生成に注目し,主な課題を2つ挙げる。
論文 参考訳(メタデータ) (2025-02-18T03:20:50Z) - Specifications: The missing link to making the development of LLM systems an engineering discipline [65.10077876035417]
我々は、構造化出力、プロセスの監督、テストタイム計算など、これまでの分野の進歩について論じる。
モジュール型かつ信頼性の高いLCMシステムの開発に向けた研究の今後の方向性について概説する。
論文 参考訳(メタデータ) (2024-11-25T07:48:31Z) - LLMs: A Game-Changer for Software Engineers? [0.0]
GPT-3やGPT-4のような大規模言語モデル(LLM)は、従来のAIアプリケーションを超えた機能を備えた画期的なイノベーションとして登場した。
ソフトウェア開発に革命をもたらす潜在能力は、ソフトウェアエンジニアリング(SE)コミュニティを魅了している。
この記事では、LCMはソフトウェアの開発方法を変えるだけでなく、開発者の役割を再定義するものである、と論じる。
論文 参考訳(メタデータ) (2024-11-01T17:14:37Z) - Overview of Current Challenges in Multi-Architecture Software Engineering and a Vision for the Future [0.0]
提示されたシステムアーキテクチャは、動的な知識グラフベースのWebAssembly Twinsの概念に基づいている。
結果として得られるシステムは、エンドユーザによる完全な透明性とコントロール性を備えた、高度な自律能力を持つことになる。
論文 参考訳(メタデータ) (2024-10-28T13:03:09Z) - Codellm-Devkit: A Framework for Contextualizing Code LLMs with Program Analysis Insights [9.414198519543564]
codellm-devkit (以下, CLDK') は,プログラム解析のプロセスを大幅に単純化したオープンソースライブラリである。
CLDKは開発者に対して直感的でユーザフレンドリなインターフェースを提供しています。
論文 参考訳(メタデータ) (2024-10-16T20:05:59Z) - CodeMMLU: A Multi-Task Benchmark for Assessing Code Understanding Capabilities of CodeLLMs [9.649864680130781]
提案するCodeMMLUは,CodeLLMにおけるソフトウェア深度とコード理解度を評価するためのベンチマークである。
CodeMMLUには、コード分析、欠陥検出、ソフトウェアエンジニアリング原則といったタスクを含む、さまざまなドメインからソースされた10,000以上の質問が含まれている。
評価の結果,最先端モデルでさえ,CodeMMLUでは重大な課題に直面していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-02T20:04:02Z) - Code-Survey: An LLM-Driven Methodology for Analyzing Large-Scale Codebases [3.8153349016958074]
我々は,大規模規模の探索と解析を目的とした最初のLCM駆動型手法であるCode-Surveyを紹介した。
調査を慎重に設計することで、Code-Surveyはコミット、Eメールなどの構造化されていないデータを、構造化、構造化、分析可能なデータセットに変換する。
これにより、複雑なソフトウェアの進化を定量的に分析し、設計、実装、保守、信頼性、セキュリティに関する貴重な洞察を明らかにすることができる。
論文 参考訳(メタデータ) (2024-09-24T17:08:29Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - How Far Have We Gone in Binary Code Understanding Using Large Language Models [51.527805834378974]
バイナリコード理解におけるLarge Language Models(LLM)の有効性を評価するためのベンチマークを提案する。
評価の結果、既存のLLMはバイナリコードをある程度理解でき、それによってバイナリコード解析の効率が向上することが明らかとなった。
論文 参考訳(メタデータ) (2024-04-15T14:44:08Z) - CodeTF: One-stop Transformer Library for State-of-the-art Code LLM [72.1638273937025]
我々は、最先端のCode LLMとコードインテリジェンスのためのオープンソースのTransformerベースのライブラリであるCodeTFを紹介する。
我々のライブラリは、事前訓練されたコードLLMモデルと人気のあるコードベンチマークのコレクションをサポートします。
CodeTFが機械学習/生成AIとソフトウェア工学のギャップを埋められることを願っている。
論文 参考訳(メタデータ) (2023-05-31T05:24:48Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。