論文の概要: Tea: Program Repair Using Neural Network Based on Program Information
Attention Matrix
- arxiv url: http://arxiv.org/abs/2107.08262v1
- Date: Sat, 17 Jul 2021 15:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:48:59.808511
- Title: Tea: Program Repair Using Neural Network Based on Program Information
Attention Matrix
- Title(参考訳): Tea: プログラム情報アテンション行列に基づくニューラルネットワークによるプログラム修復
- Authors: Wenshuo Wang, Chen Wu, Liang Cheng, Yang Zhang
- Abstract要約: 本稿では,ソフトウェアプログラムの構文,データフロー,制御フローの側面を捉える統一表現を提案する。
そこで我々は,この表現を用いて,NLPからトランスフォーマーモデルを誘導し,バギープログラムの理解と修正を行う手法を考案した。
- 参考スコア(独自算出の注目度): 14.596847020236657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advance in machine learning (ML)-driven natural language process (NLP)
points a promising direction for automatic bug fixing for software programs, as
fixing a buggy program can be transformed to a translation task. While software
programs contain much richer information than one-dimensional natural language
documents, pioneering work on using ML-driven NLP techniques for automatic
program repair only considered a limited set of such information. We
hypothesize that more comprehensive information of software programs, if
appropriately utilized, can improve the effectiveness of ML-driven NLP
approaches in repairing software programs. As the first step towards proving
this hypothesis, we propose a unified representation to capture the syntax,
data flow, and control flow aspects of software programs, and devise a method
to use such a representation to guide the transformer model from NLP in better
understanding and fixing buggy programs. Our preliminary experiment confirms
that the more comprehensive information of software programs used, the better
ML-driven NLP techniques can perform in fixing bugs in these programs.
- Abstract(参考訳): 機械学習(ML)駆動自然言語処理(NLP)の進歩は、バグ修正プログラムを翻訳タスクに変換することにより、ソフトウェアプログラムの自動バグ修正の有望な方向を示している。
ソフトウェアプログラムは1次元の自然言語文書よりもはるかにリッチな情報を含んでいるが、ML駆動のNLP技術を用いてプログラムの自動修復を行う先駆的な取り組みは、そのような情報の限られたセットのみを考慮に入れている。
ソフトウェアプログラムのより包括的な情報は、適切に利用すれば、ソフトウェアプログラムの修復におけるML駆動NLPアプローチの有効性を向上させることができると仮定する。
この仮説を証明するための第一歩として,ソフトウェアプログラムの構文,データフロー,制御フローの側面を捉える統一表現を提案し,そのような表現を用いてnlpからトランスフォーマモデルを導く手法を考案し,バグのあるプログラムの理解と修正を行う。
予備実験では,使用するソフトウェアプログラムの包括的情報が多いほど,これらのプログラムのバグの修正にml駆動nlp技術が有効であることを確認した。
関連論文リスト
- Multi-Task Program Error Repair and Explanatory Diagnosis [28.711745671275477]
マルチタスクプログラムエラー修復・説明診断(mPRED)のための新しい機械学習手法を提案する。
ソースコードのエンコードには事前訓練された言語モデルが使用され、ダウンストリームモデルはエラーを特定して修復するために特別に設計されている。
プログラム構造を可視化・解析するために,プログラム構造の可視化にグラフニューラルネットワークを用いる。
論文 参考訳(メタデータ) (2024-10-09T05:09:24Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Peer-aided Repairer: Empowering Large Language Models to Repair Advanced Student Assignments [26.236420215606238]
我々は,大規模言語モデルを利用したPaRというフレームワークを開発した。
PaRは、ピアソリューション選択、マルチソースプロンプト生成、プログラム修復の3段階で動作する。
Defects4DSと他のよく検証されたTHEPデータセットの評価は、PaRが新しい最先端のパフォーマンスを達成することを明らかにしている。
論文 参考訳(メタデータ) (2024-04-02T09:12:21Z) - A Novel Approach for Automatic Program Repair using Round-Trip
Translation with Large Language Models [50.86686630756207]
研究によると、ある文の文法的誤りは、それを他の言語に翻訳し、その語を返せば修正できる。
現在の自動プログラム修復(APR)生成モデルは、ソースコードで事前訓練され、修正のために微調整されている。
本稿では,あるプログラミング言語から別のプログラミング言語,あるいは自然言語へのコード変換,そして,その逆といった,微調整ステップをバイパスし,ラウンド・トリップ変換(RTT)を用いる手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T22:36:31Z) - Guess & Sketch: Language Model Guided Transpilation [59.02147255276078]
学習されたトランスパイレーションは、手作業による書き直しやエンジニアリングの取り組みに代わるものだ。
確率的ニューラルネットワークモデル(LM)は、入力毎に可塑性出力を生成するが、正確性を保証するコストがかかる。
Guess & Sketch は LM の特徴からアライメントと信頼性情報を抽出し、意味的等価性を解決するためにシンボリック・ソルバに渡す。
論文 参考訳(メタデータ) (2023-09-25T15:42:18Z) - Enhancing Automated Program Repair through Fine-tuning and Prompt
Engineering [2.3826139428423576]
シーケンス・ツー・シーケンスのモデルは、十分に大規模なデータセットでトレーニングされた時に、誤ったプログラムを正しいプログラムに変換するために使われてきた。
いくつかの最近の研究は、コードレビューがプログラムの修復をさらに改善できるという強い実証的な証拠を示した。
PLとNLの本質的な知識が,プログラムの自動修復の改善に有効かどうかを検討する。
論文 参考訳(メタデータ) (2023-04-16T17:29:51Z) - On ML-Based Program Translation: Perils and Promises [17.818482089078028]
この研究は、教師なしのプログラム翻訳者とその失敗の理由を調査する。
入力が特定のパターンに従う場合、入力コードを前処理し、出力が特定のパターンに従う場合、出力を後処理するルールベースのプログラム突然変異エンジンを開発する。
将来的には、プログラムドメイン知識をMLベースの翻訳パイプラインに組み込むことができるエンドツーエンドのプログラム翻訳ツールを構想する。
論文 参考訳(メタデータ) (2023-02-21T16:42:20Z) - Syntax-Guided Program Reduction for Understanding Neural Code
Intelligence Models [1.1924369482115011]
そこで本研究では,構文誘導型プログラム削減手法がより高速で,短縮プログラムにキートークンのセットが小さいことを示す。
また、入力プログラムの最大65%の逆例を生成するために、キートークンが使用できることを示す。
論文 参考訳(メタデータ) (2022-05-28T09:04:57Z) - A Conversational Paradigm for Program Synthesis [110.94409515865867]
本稿では,大規模言語モデルを用いた対話型プログラム合成手法を提案する。
私たちは、自然言語とプログラミング言語のデータに基づいて、CodeGenと呼ばれる大規模な言語モデルのファミリーを訓練します。
本研究は,会話能力の出現と,提案した会話プログラム合成パラダイムの有効性を示すものである。
論文 参考訳(メタデータ) (2022-03-25T06:55:15Z) - Improving Compositionality of Neural Networks by Decoding
Representations to Inputs [83.97012077202882]
我々は、ニューラルネットワークのアクティベーションを制約し、入力に"デコード"するように生成モデルを共同で訓練することで、従来のディープラーニングプログラムの利点を橋渡しする。
本稿では,デオード可能な表現の分布外検出,逆例,校正,公平性への応用を実証する。
論文 参考訳(メタデータ) (2021-06-01T20:07:16Z) - How could Neural Networks understand Programs? [67.4217527949013]
ソースコードにnlpプリトレーニング技術を直接適用するか、あるいはtheshelfによってモデルに機能を追加するかで、プログラムをより理解するためのモデルを構築するのは難しい。
本研究では,(1)操作セマンティクスの基本操作とよく一致する表現と(2)環境遷移の情報からなる情報から,モデルが学ぶべき新しいプログラムセマンティクス学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-05-10T12:21:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。