論文の概要: Semistructured Merge with Language-Specific Syntactic Separators
- arxiv url: http://arxiv.org/abs/2407.18888v1
- Date: Fri, 26 Jul 2024 17:40:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 12:49:41.575115
- Title: Semistructured Merge with Language-Specific Syntactic Separators
- Title(参考訳): 言語特異的構文分離器による半構造的マージ
- Authors: Guilherme Cavalcanti, Paulo Borba, Leonardo dos Anjos, Jonatas Clementino,
- Abstract要約: 言語固有の構文分離器を用いて解析せずに構造を推論するツールを提案する。
我々のツールは、実際に広く使われている非構造化ツールよりも大幅に改善されている。
- 参考スコア(独自算出の注目度): 1.0999592665107416
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Structured merge tools exploit programming language syntactic structure to enhance merge accuracy by reducing spurious conflicts reported by unstructured tools. By creating and handling full ASTs, structured tools are language-specific and harder to implement. They can also be computationally expensive when merging large files.To reduce these drawbacks, semistructured merge tools work with partial ASTs that use strings to represent lower level syntactic structures such as method bodies, and rely on unstructured tools to merge them. This, however, results in merge accuracy loss. To improve accuracy without compromising semistructured merge benefits, we propose a tool that leverages language-specific syntactic separators to infer structure without parsing. We still resort to an unstructured tool to merge lower level structures, but only after preprocessing the code so that text in between separators such as curly braces appear in separate lines. This way we emulate the capabilities of structured merge tools while avoiding their drawbacks. By comparing our tool with a robust implementation of semistructured merge, we find that our tool substantially reduces the number of spurious conflicts. We also observe significant but less substantial reductions on the overall number of reported conflicts, and of files with conflicts. However, similar to structured tools, our tool lets more merge conflicts go undetected. Our tool shows significant improvements over unstructured tools widely used in practice. Finally we observe that exploiting language-specific syntactic separators introduces unique textual alignment challenges.
- Abstract(参考訳): 構造化マージツールは、プログラミング言語の構文構造を利用して、非構造化ツールによって報告される急激な競合を減らすことでマージ精度を向上させる。
フルASTの作成と処理によって、構造化ツールは言語固有のもので、実装が難しくなります。
これらの欠点を減らすために、半構造化されたマージツールは部分的なASTで動作し、文字列を使用してメソッド本体のような低レベルの構文構造を表現し、それらをマージするために非構造化ツールに依存している。
しかし、これはマージ精度の低下をもたらす。
半構造化マージの利点を損なうことなく精度を向上させるために,言語固有の構文分離器を用いて解析せずに構造を推論するツールを提案する。
低いレベルの構造をマージするための非構造化ツールを引き続き使用していますが、コードを前処理した後のみ、カーリーブレスのようなセパレータ間のテキストが別々の行に表示されるようにしています。
このようにして、構造化されたマージツールの能力をエミュレートし、その欠点を避けます。
ツールと半構造化マージの堅牢な実装を比較することで、私たちのツールが突発的な競合の数を大幅に減らすことが分かりました。
また、報告されたコンフリクトの総数、およびコンフリクトのファイルの大幅な削減も観察する。
しかし、構造化ツールと同様に、私たちのツールはより多くのマージコンフリクトが検出されないようにします。
我々のツールは、実際に広く使われている非構造化ツールよりも大幅に改善されている。
最後に、言語固有の構文セパレータを活用することで、ユニークなテキストアライメントの課題が生じることを観察する。
関連論文リスト
- Concise and Precise Context Compression for Tool-Using Language Models [60.606281074373136]
ツールを用いた言語モデルにおいて,ツール文書を簡潔かつ高精度な要約シーケンスに圧縮する2つの手法を提案する。
API-BankとAPIBenchの結果,最大16倍の圧縮率で上行ベースラインに匹敵する性能を示した。
論文 参考訳(メタデータ) (2024-07-02T08:17:00Z) - A Novel Refactoring and Semantic Aware Abstract Syntax Tree Differencing Tool and a Benchmark for Evaluating the Accuracy of Diff Tools [2.0625936401496237]
Syntax Tree (AST) diffツールは、ほとんどの開発者が使っている行ベースのdiffツールの制限を克服するために開発された。
上記の制限をすべて解決するRefactoringMinerに基づく新しいAST diffツールを提案する。
当社のツールは,特にコミットにおいて,非互換性ツールに匹敵する実行時間で,大幅な精度の向上とリコールを実現しています。
論文 参考訳(メタデータ) (2024-03-09T15:32:41Z) - Contrastive Instruction Tuning [61.97704869248903]
意味論的に等価な命令-インスタンスペア間の類似性を最大化するために、コントラスト命令チューニングを提案する。
PromptBenchベンチマークの実験によると、CoINはLLMの頑健さを一貫して改善し、文字、単語、文、意味のレベルを平均して2.5%の精度で変化させる。
論文 参考訳(メタデータ) (2024-02-17T00:09:32Z) - Promptly Predicting Structures: The Return of Inference [31.442123334313035]
ゼロショットと少数ショットの言語構造予測器を構築するためのフレームワークを提案する。
その結果, 整合性の維持は構造的に有効であるだけでなく, 性能も向上することがわかった。
論文 参考訳(メタデータ) (2024-01-12T20:08:39Z) - Leveraging Code to Improve In-context Learning for Semantic Parsing [48.66031267718704]
In-context Learning (ICL) は、その少数ショットの性質と一般化の改善により、意味解析に魅力的なアプローチである。
我々は,(1)DSLの代わりにPythonなどの汎用プログラミング言語を用いた意味解析におけるICLの有効性を向上し,(2)ドメイン記述を構造化したプロンプトを増強する。
論文 参考訳(メタデータ) (2023-11-16T02:50:06Z) - ControlLLM: Augment Language Models with Tools by Searching on Graphs [97.62758830255002]
我々は,大規模言語モデル(LLM)が実世界のタスクを解くためのマルチモーダルツールを利用できる新しいフレームワークであるControlLLMを提案する。
フレームワークは,(1)複雑なタスクを明確なサブタスクに分割し,入力と出力を適切に定義したサブタスクに分解するtextittask Decomposer,(2)構築済みのツールグラフ上で最適なソリューションパスを探索する textitThoughts-on-Graph(ToG)パラダイム,(3)ソリューションパスを解釈して実行するリッチなツールボックスを備えた textitexecution Engine,の3つの主要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-26T21:57:21Z) - Topic Segmentation of Semi-Structured and Unstructured Conversational
Datasets using Language Models [3.7908886926768344]
トピックセグメンテーションに関する現在の研究は、しばしば構造化されたテキストのセグメンテーションに焦点を当てている。
本研究では,非構造化チャットと半構造化チャットを分割する場合に,クロスエントロピーと再重み付きクロスエントロピー損失関数の頑健な代替としてFocal Loss関数を提案する。
論文 参考訳(メタデータ) (2023-10-26T03:37:51Z) - Adapting Language Models to Compress Contexts [71.98287002918941]
トランスフォーマーベースの言語モデル(LM)は強力で広く適用可能なツールであるが、その有用性は有限コンテキストウィンドウによって制限される。
本稿では,事前学習したLMを,長いコンテキストをコンパクトな要約ベクトルに圧縮可能なAutoCompressorに適応させることを提案する。
最大30,720個のトークンのシーケンスでOPTとLlama-2モデルを微調整し、AutoCompressorが長いコンテキストを使ってパープレキシティを向上できることを示す。
論文 参考訳(メタデータ) (2023-05-24T06:42:44Z) - MergeBERT: Program Merge Conflict Resolution via Neural Transformers [11.460182185916704]
マージコンフリクトは、プルリクエストと継続的インテグレーションパイプラインを数時間から数日にわたって停止させる可能性がある。
本稿ではトークンレベルの3方向差分とトランスフォーマーモデルに基づく新しいニューラルプログラムマージフレームワークであるMergeBERTを紹介する。
我々のモデルは,64~69%のマージ分解能合成を達成し,既存の構造化およびニューラルプログラムマージツールよりも約2倍の性能向上を実現した。
論文 参考訳(メタデータ) (2021-08-31T21:37:53Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - Retrofitting Structure-aware Transformer Language Model for End Tasks [34.74181162627023]
エンドタスクを容易にするための構造対応トランスフォーマー言語モデルについて検討する。
中層構造学習戦略は構造統合に活用される。
実験結果から, 再構成構造対応トランスフォーマー言語モデルにより, パープレキシティが向上することが確認された。
論文 参考訳(メタデータ) (2020-09-16T01:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。