論文の概要: LLM-Based Repair of C++ Implicit Data Loss Compiler Warnings: An Industrial Case Study
- arxiv url: http://arxiv.org/abs/2601.14936v1
- Date: Wed, 21 Jan 2026 12:30:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.354483
- Title: LLM-Based Repair of C++ Implicit Data Loss Compiler Warnings: An Industrial Case Study
- Title(参考訳): LLMによるC++インシシデントデータロスコンパイラ警告の修復:産業ケーススタディ
- Authors: Chansong You, Hyun Deok Choi, Jingun Hong,
- Abstract要約: 本稿では,Large Language Models (LLM) を用いた大規模C++プロジェクトにおいて,暗黙的なデータ損失警告を自動的に修正する手法を提案する。
我々のアプローチでは、Language Server Protocol(LSP)を使用してコンテキストを収集し、Tree-sitterを使って関連するコードを抽出し、LCMを使って意思決定を行い、修正を生成する。
我々はこの方法を大規模なC++プロジェクトでテストし、コードレビュー中に人間の開発者による修正の受け入れ率は92.73%となった。
- 参考スコア(独自算出の注目度): 0.8029049649310211
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a method to automatically fix implicit data loss warnings in large C++ projects using Large Language Models (LLMs). Our approach uses the Language Server Protocol (LSP) to gather context, Tree-sitter to extract relevant code, and LLMs to make decisions and generate fixes. The method evaluates the necessity of range checks concerning performance implications and generates appropriate fixes. We tested this method in a large C++ project, resulting in a 92.73% acceptance rate of the fixes by human developers during the code review. Our LLM-generated fixes reduced the number of warning fix changes that introduced additional instructions due to range checks and exception handling by 39.09% compared to a baseline fix strategy. This result was 13.56% behind the optimal solutions created by human developers. These findings demonstrate that our LLM-based approach can reduce the manual effort to address compiler warnings while maintaining code quality and performance in a real-world scenario. Our automated approach shows promise for integration into existing development workflows, potentially improving code maintenance practices in complex C++ software projects.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) を用いた大規模C++プロジェクトにおいて,暗黙的なデータ損失警告を自動的に修正する手法を提案する。
我々のアプローチでは、Language Server Protocol(LSP)を使用してコンテキストを収集し、Tree-sitterを使って関連するコードを抽出し、LCMを使って意思決定を行い、修正を生成する。
本手法は,性能に関する範囲チェックの必要性を評価し,適切な修正を生成する。
我々はこの方法を大規模なC++プロジェクトでテストし、コードレビュー中に人間の開発者による修正の受け入れ率は92.73%となった。
LLMが生成した修正は、基準修正戦略と比較して、レンジチェックと例外ハンドリングによる追加命令を導入した警告修正の回数を39.09%削減した。
この結果は、人間の開発者が作成した最適なソリューションよりも13.56%遅れている。
これらの結果から、LLMベースのアプローチは、実際のシナリオにおけるコード品質とパフォーマンスを維持しながら、コンパイラ警告に対処するための手作業を減らすことができることが示された。
私たちの自動アプローチは、既存の開発ワークフローとの統合を約束しており、複雑なC++ソフトウェアプロジェクトのコードメンテナンスプラクティスを改善する可能性があります。
関連論文リスト
- Context-Guided Decompilation: A Step Towards Re-executability [50.71992919223209]
バイナリ逆コンパイルは、ソフトウェアセキュリティ分析、リバースエンジニアリング、マルウェア理解において重要な役割を果たす。
大規模言語モデル (LLMs) の最近の進歩により、ニューラルデコンパイルが可能になったが、生成されたコードは一般的に意味論的にのみ使用可能である。
In-context Learning(ICL)を活用して,再実行可能なソースコードを生成するためのILC4Decompを提案する。
論文 参考訳(メタデータ) (2025-11-03T17:21:39Z) - QiMeng-NeuComBack: Self-Evolving Translation from IR to Assembly Code [52.66657751895655]
大規模言語モデル(LLM)は、ニューラルコンパイルという魅力的な新しいパラダイムを提供する。
本稿では,IR-to-assemblyコンパイル用に設計された新しいベンチマークデータセットであるNeuComBackを紹介する。
LLMの内部的なプロンプト戦略を進化させる自己進化的プロンプト最適化法を提案する。
論文 参考訳(メタデータ) (2025-11-03T03:20:26Z) - RelRepair: Enhancing Automated Program Repair by Retrieving Relevant Code [11.74568238259256]
RelRepairは関連するプロジェクト固有のコードを取得し、プログラムの自動修復を強化する。
広く研究されている2つのデータセット、Defects4J V1.2 と ManySStuBs4J について RelRepair の評価を行った。
論文 参考訳(メタデータ) (2025-09-20T14:07:28Z) - Do AI models help produce verified bug fixes? [62.985237003585674]
大規模言語モデルは、ソフトウェアバグの修正に使用される。
本稿では,プログラマが大規模言語モデルを用いて,自身のスキルを補完する方法について検討する。
その結果は、プログラムバグに対する保証された修正を提供するAIとLLMの適切な役割への第一歩となる。
論文 参考訳(メタデータ) (2025-07-21T17:30:16Z) - Augmenting Large Language Models with Static Code Analysis for Automated Code Quality Improvements [0.36832029288386137]
本研究では,大規模言語モデル(LLM)をソフトウェア開発に組み込んだコード問題検出と修正自動化について検討した。
静的コード分析フレームワークは、大規模なソフトウェアプロジェクトの中でバグや脆弱性、コードの臭いなどの問題を検出する。
検索拡張世代(RAG)は、リビジョンの関連性と精度を高めるために実装される。
論文 参考訳(メタデータ) (2025-06-12T03:39:25Z) - D-LiFT: Improving LLM-based Decompiler Backend via Code Quality-driven Fine-tuning [49.16469288280772]
逆コンパイラは、バイナリから可読なソースコードを再構築する。
近年の進歩にもかかわらず、そのアウトプットは構文上の誤りや意味的な誤りに悩まされ、読みにくいままである。
大規模言語モデル (LLMs) の出現により、研究者は逆コンパイラ出力を洗練するためのLLMの可能性を探り始めた。
D-LIFTは、微調整強化学習を施した拡張逆コンパイラLLMパイプラインである。
論文 参考訳(メタデータ) (2025-06-11T19:09:08Z) - Revisiting Evolutionary Program Repair via Code Language Model [11.711739409758476]
本稿では,多目的進化アルゴリズムをCLMと統合し,Javaプロジェクトのマルチロケーションバグを修正するARJA-CLMを提案する。
また,提案手法は,CLMが候補文を生成するための,アクセス可能なフィールドとメソッドに関する追加情報により,プロンプトを充実させる。
論文 参考訳(メタデータ) (2024-08-20T01:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。