論文の概要: MergeBERT: Program Merge Conflict Resolution via Neural Transformers
- arxiv url: http://arxiv.org/abs/2109.00084v1
- Date: Tue, 31 Aug 2021 21:37:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-02 14:17:08.400886
- Title: MergeBERT: Program Merge Conflict Resolution via Neural Transformers
- Title(参考訳): MergeBERT: ニューラルトランスによる競合解決プログラムのマージ
- Authors: Alexey Svyatkovskiy, Todd Mytcowicz, Negar Ghorbani, Sarah Fakhoury,
Elizabeth Dinella, Christian Bird, Neel Sundaresan, Shuvendu Lahiri
- Abstract要約: マージコンフリクトは、プルリクエストと継続的インテグレーションパイプラインを数時間から数日にわたって停止させる可能性がある。
本稿ではトークンレベルの3方向差分とトランスフォーマーモデルに基づく新しいニューラルプログラムマージフレームワークであるMergeBERTを紹介する。
我々のモデルは,64~69%のマージ分解能合成を達成し,既存の構造化およびニューラルプログラムマージツールよりも約2倍の性能向上を実現した。
- 参考スコア(独自算出の注目度): 11.460182185916704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative software development is an integral part of the modern software
development life cycle, essential to the success of large-scale software
projects. When multiple developers make concurrent changes around the same
lines of code, a merge conflict may occur. Such conflicts stall pull requests
and continuous integration pipelines for hours to several days, seriously
hurting developer productivity.
In this paper, we introduce MergeBERT, a novel neural program merge framework
based on the token-level three-way differencing and a transformer encoder
model. Exploiting restricted nature of merge conflict resolutions, we
reformulate the task of generating the resolution sequence as a classification
task over a set of primitive merge patterns extracted from real-world merge
commit data.
Our model achieves 64--69% precision of merge resolution synthesis, yielding
nearly a 2x performance improvement over existing structured and neural program
merge tools. Finally, we demonstrate versatility of our model, which is able to
perform program merge in a multilingual setting with Java, JavaScript,
TypeScript, and C# programming languages, generalizing zero-shot to unseen
languages.
- Abstract(参考訳): コラボレーション型ソフトウェア開発は、現代のソフトウェア開発ライフサイクルの不可欠な部分であり、大規模ソフトウェアプロジェクトの成功に不可欠である。
複数の開発者が同じコード行で同時変更を行うと、マージコンフリクトが発生する可能性がある。
このような衝突はプルリクエストと継続的インテグレーションパイプラインを数時間から数日停止させ、開発者の生産性を著しく損なう。
本稿では,トークンレベルの3方向差分法とトランスフォーマーエンコーダモデルに基づく,新しいニューラルネットワークマージフレームワークであるmergebertを提案する。
本研究では,実世界のマージコミットデータから抽出したプリミティブマージパターンを用いた分類タスクとして,マージ競合解決の限定的な性質を生かして解決シーケンスを生成するタスクを再構成する。
本モデルはマージ解像度合成の精度を64~69%向上させ,既存の構造化プログラムおよび神経プログラムマージツールの2倍近く向上した。
最後に、Java、JavaScript、TypeScript、C#のプログラミング言語とのマルチ言語設定でプログラムマージを実行でき、ゼロショットを目に見えない言語に一般化できるモデルの汎用性を実証する。
関連論文リスト
- Evaluation of Version Control Merge Tools [3.1969855247377836]
Gitのようなバージョン管理システムでは、異なる開発者やブランチからの変更を統合する方法が必要になる。
マージツールは変更のクリーンな統合を出力するか、手作業による解決のためにコンフリクトを出力する。
新しいマージツールが提案されているが、まだ互いに評価されていない。
論文 参考訳(メタデータ) (2024-10-13T17:35:14Z) - CONGRA: Benchmarking Automatic Conflict Resolution [3.9910625211670485]
ConGraは、ソフトウェアマージツールのパフォーマンスを評価するために設計されたベンチマークスキームである。
我々は34の現実世界プロジェクトから44,948のコンフリクトに基づいて大規模な評価データセットを構築した。
論文 参考訳(メタデータ) (2024-09-21T12:21:41Z) - WizardMerge -- Save Us From Merging Without Any Clues [8.21089093466603]
WizardMergeは、Gitのマージ結果を利用して、テキストとLLVM-IRレベルのコードブロック依存を検索する補助ツールです。
その結果、WizardMergeは競合の合併コストを減少させ、23.85%の削減を実現している。
論文 参考訳(メタデータ) (2024-07-03T05:40:29Z) - Multi-Agent Software Development through Cross-Team Collaboration [30.88149502999973]
ソフトウェア開発のためのスケーラブルなマルチチームフレームワークである、クロスチームコラボレーション(CTC)を紹介します。
CTCは、組織されたチームがさまざまな決定を共同で提案し、洞察とコミュニケーションすることを可能にする。
その結果,最先端のベースラインに比べて品質が顕著に向上した。
論文 参考訳(メタデータ) (2024-06-13T10:18:36Z) - Token Fusion: Bridging the Gap between Token Pruning and Token Merging [71.84591084401458]
ビジョントランスフォーマー(ViT)はコンピュータビジョンの強力なバックボーンとして登場し、多くの伝統的なCNNを上回っている。
計算オーバーヘッドは、主に自己アテンション機構によるもので、リソース制約のあるエッジデバイスへのデプロイが困難になる。
トークンプルーニングとトークンマージの両方のメリットを両立させる手法であるToken Fusion(ToFu)を紹介する。
論文 参考訳(メタデータ) (2023-12-02T04:29:19Z) - Do code refactorings influence the merge effort? [80.1936417993664]
複数のコントリビュータがソースコードを並行して変更して,新機能の実装やバグの修正,既存のコードの変更などを行っている。
これらの同時変更は、ソースコードの同じバージョンにマージする必要がある。
研究によると、すべてのマージの試みの10~20%が衝突を起こしており、これはプロセスを完了するために手動開発者の介入を必要とする。
論文 参考訳(メタデータ) (2023-05-10T13:24:59Z) - An Empirical Study of Multimodal Model Merging [148.48412442848795]
モデルマージは、異なるタスクでトレーニングされた複数のモデルを融合してマルチタスクソリューションを生成するテクニックである。
我々は、モダリティ固有のアーキテクチャのビジョン、言語、およびクロスモーダルトランスフォーマーをマージできる新しい目標に向けて研究を行っている。
本稿では,重み間の距離を推定し,マージ結果の指標となる2つの指標を提案する。
論文 参考訳(メタデータ) (2023-04-28T15:43:21Z) - Speculative Decoding with Big Little Decoder [108.95187338417541]
Big Little Decoder (BiLD) は、幅広いテキスト生成アプリケーションの推論効率と遅延を改善するフレームワークである。
NVIDIA T4 GPUでは、当社のフレームワークは最大2.12倍の高速化を実現し、生成品質の最小化を実現している。
私たちのフレームワークは完全にプラグアンドプレイで、トレーニングプロセスやモデルアーキテクチャの変更なしに適用できます。
論文 参考訳(メタデータ) (2023-02-15T18:55:29Z) - Branchformer: Parallel MLP-Attention Architectures to Capture Local and
Global Context for Speech Recognition and Understanding [41.928263518867816]
コンフォーマーは多くの音声処理タスクに有効であることが証明されている。
そこで我々は,より柔軟で解釈可能でカスタマイズ可能なエンコーダであるブランチフォーマーを提案する。
論文 参考訳(メタデータ) (2022-07-06T21:08:10Z) - Cascaded Text Generation with Markov Transformers [122.76100449018061]
ニューラルテキスト生成における2つの主要なアプローチは、シリアルビームサーチデコーディングを使用した完全自己回帰モデルと、出力依存のない並列デコーディングを使用した非自己回帰モデルである。
本稿では,境界付きコンテキストを持つ条件付きランダムフィールドを並列にデコードできることに言及し,高品質な出力を生成するための効率的なカスケードデコード手法を提案する。
このアプローチでは,5つの機械翻訳データセットの既存の手法と比較して,競争力のある精度と速度のトレードオフを示す一方で,標準的な自己回帰トレーニングからのわずかな変更しか必要としない。
論文 参考訳(メタデータ) (2020-06-01T17:52:15Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。