論文の概要: Out of Context: How important is Local Context in Neural Program Repair?
- arxiv url: http://arxiv.org/abs/2312.04986v1
- Date: Fri, 8 Dec 2023 11:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 15:11:53.906348
- Title: Out of Context: How important is Local Context in Neural Program Repair?
- Title(参考訳): コンテキスト外: ニューラルプログラム修復におけるローカルコンテキストはどの程度重要か?
- Authors: Julian Aron Prenner and Romain Robbes
- Abstract要約: 我々は、この地域の状況が修復の成功に与える影響について研究する。
我々は、多くの異なるローカルコンテキスト設定でTransformerモデルをトレーニングし、評価する。
我々の結果は、TransformerベースのAPRツールに取り組んでいる研究者だけでなく、ベンチマークやデータセットの作成にも関係しています。
- 参考スコア(独自算出の注目度): 5.732727528813227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning source code models have been applied very successfully to the
problem of automated program repair. One of the standing issues is the small
input window of current models which often cannot fully fit the context code
required for a bug fix (e.g., method or class declarations of a project).
Instead, input is often restricted to the local context, that is, the lines
below and above the bug location. In this work we study the importance of this
local context on repair success: how much local context is needed?; is context
before or after the bug location more important? how is local context tied to
the bug type? To answer these questions we train and evaluate Transformer
models in many different local context configurations on three datasets and two
programming languages. Our results indicate that overall repair success
increases with the size of the local context (albeit not for all bug types) and
confirm the common practice that roughly 50-60% of the input window should be
used for context leading the bug. Our results are not only relevant for
researchers working on Transformer-based APR tools but also for benchmark and
dataset creators who must decide what and how much context to include in their
datasets.
- Abstract(参考訳): ディープラーニングのソースコードモデルは、プログラムの自動修復の問題に非常にうまく適用されています。
現状のモデルの小さな入力ウィンドウは、バグ修正(例えば、プロジェクトのメソッドやクラス宣言)に必要なコンテキストコードに完全に適合しないことが多い。
代わりに、入力は、しばしば、ローカルコンテキスト、すなわち、バグロケーションの下と上のラインに制限される。
この作業では、修理成功におけるこのローカルコンテキストの重要性について研究しています。
コンテキストはバグ位置の前後でより重要か?
ローカルコンテキストはバグタイプとどのように結びついているのか?
これらの質問に答えるために、3つのデータセットと2つのプログラミング言語上で、多くの異なるローカルコンテキスト設定でTransformerモデルをトレーニングし、評価する。
以上の結果から,局所的なコンテキストの大きさ(すべてのバグタイプではない)で全体の修復成功が増加し,入力ウィンドウの約50~60%がバグをリードするコンテキストに使用されることが確認できた。
我々の結果は、TransformerベースのAPRツールに取り組んでいる研究者だけでなく、データセットに含まれるコンテキストを判断しなければならないベンチマークやデータセットの作成にも関係しています。
関連論文リスト
- ContextCite: Attributing Model Generation to Context [64.90535024385305]
我々は文脈属性の問題を導入し、あるモデルが特定の文を生成するきっかけとなった文脈の一部を特定する。
次に、既存の言語モデルの上に適用可能な、コンテキスト属性のシンプルでスケーラブルなメソッドであるContextCiteを紹介します。
ContextCiteは、生成されたステートメントの検証、応答品質の改善、中毒攻撃の検出という3つのアプリケーションを通して紹介します。
論文 参考訳(メタデータ) (2024-09-01T14:36:36Z) - Improving Retrieval Augmented Open-Domain Question-Answering with Vectorized Contexts [83.57864140378035]
本稿では,オープンドメイン質問応答タスクにおいて,より長いコンテキストをカバーできる手法を提案する。
コンテキストを効果的にエンコードする小さなエンコーダ言語モデルを利用し、エンコーダは元の入力とクロスアテンションを適用する。
微調整後、2つのホールドインデータセット、4つのホールドアウトデータセット、および2つのIn Context Learning設定のパフォーマンスが改善された。
論文 参考訳(メタデータ) (2024-04-02T15:10:11Z) - Making Retrieval-Augmented Language Models Robust to Irrelevant Context [55.564789967211844]
ALMの重要なデシプラタムは、検索された情報が関連する場合のパフォーマンスをモデル化するのに役立つことである。
近年の研究では、検索の増大がパフォーマンスに悪影響を及ぼすことが示されている。
論文 参考訳(メタデータ) (2023-10-02T18:52:35Z) - WELL: Applying Bug Detectors to Bug Localization via Weakly Supervised
Learning [37.09621161662761]
本稿では,バグローカライゼーションモデルをトレーニングするためのWEakly supervised bug LocaLization (WELL) 手法を提案する。
CodeBERTはバギーまたはノーのバイナリラベル付きデータに基づいて微調整されるため、WELLはバグのローカライゼーションを弱教師付きで解決することができる。
論文 参考訳(メタデータ) (2023-05-27T06:34:26Z) - Does Localization Inform Editing? Surprising Differences in
Causality-Based Localization vs. Knowledge Editing in Language Models [68.03946716358335]
既存の方法と異なる位置にある重みを編集することで、その事実をモデルに格納する方法を変えることができる。
特定のモデルパラメータに事実をローカライズすることで、モデル内の知識を操作する場所がわかると期待しているからです。
我々の結果は、事前訓練された言語モデルがどのように機能するかのより優れた機械的理解が、必ずしも行動の最良の変更方法に関する洞察に結びつくとは限らないことを示唆している。
論文 参考訳(メタデータ) (2023-01-10T21:26:08Z) - Detect-Localize-Repair: A Unified Framework for Learning to Debug with
CodeT5 [14.712753336831172]
本稿では,事前訓練されたプログラミング言語モデルであるCodeT5に基づく,新しい統一型emphDetect-Localize-Repairフレームワークを提案する。
我々のモデルは、NLPとソフトウェア工学の両方の領域から既存のベースラインを著しく上回ります。
論文 参考訳(メタデータ) (2022-11-27T16:11:29Z) - BigIssue: A Realistic Bug Localization Benchmark [89.8240118116093]
BigIssueは、現実的なバグローカライゼーションのためのベンチマークである。
実際のJavaバグと合成Javaバグの多様性を備えた一般的なベンチマークを提供する。
われわれは,バグローカライゼーションの最先端技術として,APRの性能向上と,現代の開発サイクルへの適用性の向上を期待している。
論文 参考訳(メタデータ) (2022-07-21T20:17:53Z) - A Fault Localization and Debugging Support Framework driven by Bug
Tracking Data [0.11915976684257382]
この論文は、さまざまなソースからのデータを組み合わせることで、フォールトローカリゼーションフレームワークを提供することを目指しています。
これを実現するために,バグ分類スキーマを導入し,ベンチマークを作成し,履歴データに基づく新しいフォールトローカライズ手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T13:23:13Z) - Local-Global Video-Text Interactions for Temporal Grounding [77.5114709695216]
本稿では,テキストクエリに関連するビデオの時間間隔を特定することを目的とした,テキスト間時間グラウンドリングの問題に対処する。
そこで本研究では,テキストクエリにおける意味句の中間レベルの特徴の集合を抽出する,新しい回帰モデルを用いてこの問題に対処する。
提案手法は,ローカルからグローバルへのコンテキスト情報を活用することにより,目標時間間隔を効果的に予測する。
論文 参考訳(メタデータ) (2020-04-16T08:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。