論文の概要: CigaR: Cost-efficient Program Repair with LLMs
- arxiv url: http://arxiv.org/abs/2402.06598v1
- Date: Fri, 9 Feb 2024 18:21:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 15:34:53.602479
- Title: CigaR: Cost-efficient Program Repair with LLMs
- Title(参考訳): CigaR:LLMによる費用効率の高いプログラム修復
- Authors: D\'avid Hidv\'egi, Khashayar Etemadi, Sofia Bobadilla, Martin
Monperrus
- Abstract要約: 補修コストの最小化に焦点をあてた最初のLCMベースのAPRツールであるCigaRを提案する。
CigaRは、可塑性パッチの生成と可塑性パッチの乗算という、2つの大きなステップで機能する。
広く使用されているDefects4Jデータセットから得られた267のバグ実験から,CigaRはトークンコストを62。
- 参考スコア(独自算出の注目度): 8.758218443992467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLM) have proven to be effective at automated program
repair (APR). However, using LLMs can be highly costly, with companies
invoicing users by the number of tokens. In this paper, we propose CigaR, the
first LLM-based APR tool that focuses on minimizing the repair cost. CigaR
works in two major steps: generating a plausible patch and multiplying
plausible patches. CigaR optimizes the prompts and the prompt setting to
maximize the information given to LLMs in the smallest possible number of
tokens. Our experiments on 267 bugs from the widely used Defects4J dataset
shows that CigaR reduces the token cost by 62. On average, CigaR spends 171k
tokens per bug while the baseline uses 451k tokens. On the subset of bugs that
are fixed by both, CigaR spends 20k per bug while the baseline uses 695k
tokens, a cost saving of 97. Our extensive experiments show that CigaR is a
cost-effective LLM-based program repair tool that uses a low number of tokens
to generate automatic patches.
- Abstract(参考訳): 大規模言語モデル(LLM)は自動プログラム修復(APR)に有効であることが証明されている。
しかし、LSMを使うことは非常にコストがかかり、企業はトークンの数によってユーザを呼び出します。
本稿では,修復コストの最小化に焦点をあてた最初のLCMベースのAPRツールであるCigaRを提案する。
CigaRは、可塑性パッチの生成と可塑性パッチの乗算という、2つの大きなステップで機能する。
CigaRはプロンプトとプロンプト設定を最適化し、最小限のトークン数でLLMに与えられる情報を最大化する。
広く使用されているDefects4Jデータセットから得られた267のバグに関する実験は、CigaRがトークンコストを62。
平均して、CigaRはバグ毎に171kトークンを使用し、ベースラインは451kトークンを使用する。
どちらも修正されたバグのサブセットでは、ベースラインが695kトークンを使用するのに対して、CigaRはバグに20kを費やす。
CigaRは低コストのLCMベースのプログラム修復ツールであり,トークン数が少ないことで自動パッチを生成する。
関連論文リスト
- SpecTool: A Benchmark for Characterizing Errors in Tool-Use LLMs [77.79172008184415]
SpecToolは、ツール使用タスクのLLM出力のエラーパターンを特定するための新しいベンチマークである。
もっとも顕著なLCMでも,これらの誤りパターンが出力に現れることを示す。
SPECTOOLの分析と洞察を使って、エラー軽減戦略をガイドすることができる。
論文 参考訳(メタデータ) (2024-11-20T18:56:22Z) - Reasoning Robustness of LLMs to Adversarial Typographical Errors [49.99118660264703]
大規模言語モデル(LLM)は、Chain-of-Thought(CoT)プロンプトを使用した推論において、印象的な機能を示している。
本研究では,LLMのタイポグラフィ的誤りに対するロバスト性について検討する。
我々は,クエリに重要な単語の型を反復的にサンプリングし,攻撃に成功しそうな編集を選択する,Adversarial Typo Attack(texttATA$)アルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-11-08T05:54:05Z) - Inference Optimal VLMs Need Only One Visual Token but Larger Models [54.01228554126122]
視覚言語モデル(VLM)は、様々な視覚的理解と推論タスクにまたがる強力な能力を示している。
VLMは、大量の入力トークンを処理するのに必要な計算量が多いため、推論中に高いレイテンシで制約されることが多い。
高いトークン圧縮設定に適したアプローチを構築するために、最初のステップを踏み出します。
論文 参考訳(メタデータ) (2024-11-05T18:54:21Z) - Grounding by Trying: LLMs with Reinforcement Learning-Enhanced Retrieval [55.63711219190506]
大きな言語モデル(LLM)は、しばしば適切な検索クエリのポーズに苦労する。
私たちは$underlineLe$arningを$underlineRe$trieveに$underlineT$rying (LeReT)を導入します。
LeReTは、絶対精度を最大29%向上し、下流ジェネレータの評価を17%向上させることができる。
論文 参考訳(メタデータ) (2024-10-30T17:02:54Z) - Semantic-guided Search for Efficient Program Repair with Large Language Models [0.9319432628663639]
FLAMESは、修復効率とメモリ効率を向上させるためにセマンティック誘導パッチ生成を使用する。
FLAMESは従来のLCMベースのAPRに比べてメモリ消費を最大83%削減する。
FLAMESはDefects4JとHumanEval-Javaデータセットで333と163のバグに対して133と103の修正を成功させた。
論文 参考訳(メタデータ) (2024-10-22T02:59:47Z) - Hybrid Automated Program Repair by Combining Large Language Models and Program Analysis [12.7034916462208]
自動プログラム修復(APR)は、人間の開発者のバグ修正プロセスを合理化する可能性から、大きな注目を集めている。
本稿ではGIANTREPAIRと呼ばれる革新的なAPR手法を紹介する。
この知見に基づいて、GIANTREPAIRはまず、LLM生成したパッチからパッチスケルトンを構築して、パッチ空間を閉じ込め、その後、特定のプログラムに適した高品質なパッチを生成する。
論文 参考訳(メタデータ) (2024-06-03T05:05:12Z) - Aligning LLMs for FL-free Program Repair [14.935596175148586]
本稿では,大規模言語モデル (LLM) をプログラム修復に適用するための新しいアプローチについて検討する。
我々の中核的な洞察は、LLMのAPR能力は、単にトレーニング目標に出力を合わせるだけで大幅に改善できるということです。
この知見に基づいて、我々はAPRの直接的なプロンプトフレームワークであるD4Cを設計した。
論文 参考訳(メタデータ) (2024-04-13T02:36:40Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z) - Keep the Conversation Going: Fixing 162 out of 337 bugs for $0.42 each
using ChatGPT [10.071615423169902]
自動プログラム修復(APR)は、バグギープログラムのパッチを自動的に生成することを目的としている。
最近のAPRの研究は、最新のLarge Language Models(LLM)を活用して、APRのパッチを直接生成することに重点を置いている。
最初に完全に自動化された会話駆動型APRアプローチであるChatRepairを提案する。
論文 参考訳(メタデータ) (2023-04-01T20:57:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。