論文の概要: LLM-Guided Genetic Improvement: Envisioning Semantic Aware Automated Software Evolution
- arxiv url: http://arxiv.org/abs/2508.18089v1
- Date: Mon, 25 Aug 2025 14:49:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.824902
- Title: LLM-Guided Genetic Improvement: Envisioning Semantic Aware Automated Software Evolution
- Title(参考訳): LLMによる遺伝的改良 - セマンティックアウェアの自動ソフトウェア進化をめざして
- Authors: Karine Even-Mendoza, Alexander Brownlee, Alina Geiger, Carol Hanna, Justyna Petke, Federica Sarro, Dominik Sobania,
- Abstract要約: ソフトウェアの遺伝的改善(GI)は、興味のある特定の性質に応じて改善された代替ソフトウェアバージョンを自動的に生成する。
大きな言語モデル(LLM)はセマンティック・アウェアな編集を提供するが、目標指向のフィードバックと制御は欠如している。
本稿では,セマンティック・アウェアネス・サーチを取り入れたAIを用いたGIの新しい研究ラインについて検討する。
- 参考スコア(独自算出の注目度): 39.24798235257764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Genetic Improvement (GI) of software automatically creates alternative software versions that are improved according to certain properties of interests (e.g., running-time). Search-based GI excels at navigating large program spaces, but operates primarily at the syntactic level. In contrast, Large Language Models (LLMs) offer semantic-aware edits, yet lack goal-directed feedback and control (which is instead a strength of GI). As such, we propose the investigation of a new research line on AI-powered GI aimed at incorporating semantic aware search. We take a first step at it by augmenting GI with the use of automated clustering of LLM edits. We provide initial empirical evidence that our proposal, dubbed PatchCat, allows us to automatically and effectively categorize LLM-suggested patches. PatchCat identified 18 different types of software patches and categorized newly suggested patches with high accuracy. It also enabled detecting NoOp edits in advance and, prospectively, to skip test suite execution to save resources in many cases. These results, coupled with the fact that PatchCat works with small, local LLMs, are a promising step toward interpretable, efficient, and green GI. We outline a rich agenda of future work and call for the community to join our vision of building a principled understanding of LLM-driven mutations, guiding the GI search process with semantic signals.
- Abstract(参考訳): ソフトウェアの遺伝的改善(GI)は、興味のある特性(例えば、実行時間)に応じて改善された代替ソフトウェアバージョンを自動的に生成する。
検索ベースのGIは、大きなプログラム空間をナビゲートする上で優れているが、主に構文レベルで機能する。
対照的に、Large Language Models (LLMs) はセマンティック・アウェアな編集を提供するが、目標指向のフィードバックと制御は欠如している(これはGIの強みである)。
そこで本研究では,意味を意識した検索を取り入れたAIを用いたGIの研究ラインについて検討する。
LLM編集の自動クラスタリングを利用してGIを拡大することで、その第一歩を踏み出します。
PatchCatと呼ばれる私たちの提案が,LDM推奨パッチを自動的かつ効果的に分類することを可能にするという,最初の実証的な証拠を提供する。
PatchCatは18種類のソフトウェアパッチを特定し、新しく提案されたパッチを高精度に分類した。
また、NoOp編集を事前に検出したり、テストスイートの実行をスキップしたり、リソースを保存したりすることも可能になった。
これらの結果は、PatchCatが小さなローカルなLLMで動作するという事実と相まって、解釈可能、効率的、緑のGIに向けた有望なステップである。
我々は,今後の課題を概説し,LLMによる突然変異の原理的理解の構築,意味的なシグナルによるGI検索プロセスの導出という,コミュニティのビジョンに参画するよう求めている。
関連論文リスト
- Meta-RAG on Large Codebases Using Code Summarization [11.415083231118142]
大規模言語モデル(LLM)システムは、様々な領域における応用人工知能(AI)研究の最前線にある。
本稿では,情報検索とLLMを用いた大規模既存システムにおけるバグのローカライズを行うマルチエージェントシステムを提案する。
そこでは,要約を利用して79.8%の縮合を行い,コンパクトで構造化された自然言語表現を実現する。
論文 参考訳(メタデータ) (2025-08-04T17:01:10Z) - Augmenting Large Language Models with Static Code Analysis for Automated Code Quality Improvements [0.36832029288386137]
本研究では,大規模言語モデル(LLM)をソフトウェア開発に組み込んだコード問題検出と修正自動化について検討した。
静的コード分析フレームワークは、大規模なソフトウェアプロジェクトの中でバグや脆弱性、コードの臭いなどの問題を検出する。
検索拡張世代(RAG)は、リビジョンの関連性と精度を高めるために実装される。
論文 参考訳(メタデータ) (2025-06-12T03:39:25Z) - LLM Program Optimization via Retrieval Augmented Search [71.40092732256252]
提案手法は,提案手法によって最適化されたビーム探索を行う検索アルゴリズムであるRetrieval Augmented Search (RAS) である。
我々は、RASが従来の最先端のブラックボックス適応戦略よりも1.8$times$パフォーマンスが高いことを示す。
また、トレーニング例を「アトミックな編集」に分解することで、解釈可能性を向上させるAEGISと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T06:34:47Z) - A Comprehensive Survey of AI-Driven Advancements and Techniques in Automated Program Repair and Code Generation [0.0]
最近27の論文がレビューされ、2つのグループに分けられた。
最初のグループは、意味的エラーの特定を含む、バグの検出と修復のための新しいメソッドで構成されている。
2つ目のグループはコード生成に精通しており、プログラミングとタスク固有のモデルのために微調整された汎用LLMの概要を提供している。
また、識別子認識トレーニング、命令レベルでの微調整、セマンティックコード構造の導入など、コード生成を改善する方法も提示されている。
論文 参考訳(メタデータ) (2024-11-12T06:47:54Z) - GigaCheck: Detecting LLM-generated Content [72.27323884094953]
本稿では,GigaCheckを提案することによって生成したテキスト検出の課題について検討する。
本研究は,LLM生成テキストとLLM生成テキストを区別する手法と,Human-Machine協調テキストにおけるLLM生成間隔を検出する手法について検討する。
具体的には,テキスト内のAI生成間隔をローカライズするために,コンピュータビジョンから適応したDETRのような検出モデルと組み合わせて,微調整の汎用LLMを用いる。
論文 参考訳(メタデータ) (2024-10-31T08:30:55Z) - One Token Can Help! Learning Scalable and Pluggable Virtual Tokens for Retrieval-Augmented Large Language Models [67.49462724595445]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)を改善するための有望な方法である。
本稿では,RAGのためのスケーラブルでプラガブルな仮想トークンを学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:44:54Z) - Enhancing Genetic Improvement Mutations Using Large Language Models [47.62003403631452]
大規模言語モデル(LLM)は、プログラム修復を含むソフトウェア工学のタスクにうまく適用されている。
遺伝子改良(GI)のための突然変異演算子としてLLMを用いた検索プロセスの改善について検討した。
単体テストに合格するパッチの数は、標準のInsert編集よりもLLMベースの編集の方が75%高いことがわかった。
論文 参考訳(メタデータ) (2023-10-18T10:24:14Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。