論文の概要: Automating TODO-missed Methods Detection and Patching
- arxiv url: http://arxiv.org/abs/2405.06225v1
- Date: Fri, 10 May 2024 03:38:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-13 16:47:25.786634
- Title: Automating TODO-missed Methods Detection and Patching
- Title(参考訳): TODO-missed Methods Detection and Patching の自動化
- Authors: Zhipeng Gao, Yanqi Su, Xing Hu, Xin Xia,
- Abstract要約: 本稿では,ソフトウェアプロジェクトのメソッドに対するコメントを自動的にパッチするTDPatcher (TO-comment Patcher)を提案する。
私たちのモデルには、オフライン学習とオンライン推論の2つの主要なステージがあります。
私たちは、上位10,000のPython GitHubリポジトリからメソッドを収集し、評価することでデータセットを構築しました。
- 参考スコア(独自算出の注目度): 8.368184231403447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TODO comments are widely used by developers to remind themselves or others about incomplete tasks. In other words, TODO comments are usually associated with temporary or suboptimal solutions. In practice, all the equivalent suboptimal implementations should be updated (e.g., adding TODOs) simultaneously. However, due to various reasons (e.g., time constraints or carelessness), developers may forget or even are unaware of adding TODO comments to all necessary places, which results in the TODO-missed methods. These "hidden" suboptimal implementations in TODO-missed methods may hurt the software quality and maintainability in the long-term. Therefore, in this paper, we propose the novel task of TODO-missed methods detection and patching, and develop a novel model, namely TDPatcher (TODO-comment Patcher), to automatically patch TODO comments to the TODO-missed methods in software projects. Our model has two main stages: offline learning and online inference. During the offline learning stage, TDPatcher employs GraphCodeBERT and contrastive learning for encoding the TODO comment (natural language) and its suboptimal implementation (code fragment) into vector representations. For the online inference stage, we can identify the TODO-missed methods and further determine their patching position by leveraging the offline trained model. We built our dataset by collecting TODO-introduced methods from the top-10,000 Python GitHub repositories and evaluated TDPatcher on them. Extensive experimental results show the promising performance of our model over a set of benchmarks. We further conduct an in-the-wild evaluation which successfully detects 26 \textit{\major{TODO-missed} methods} from 50 GitHub repositories.
- Abstract(参考訳): TODOコメントは、開発者が自分自身や他の人に不完全なタスクを思い出すために広く使われている。
言い換えれば、TODOコメントは通常、一時的なあるいは準最適ソリューションと関連付けられている。
実際には、すべての等価なサブ最適化実装を同時に更新する(例えば、TODOを追加する)必要がある。
しかし、様々な理由(例えば、時間制約や不注意など)により、開発者はTODOコメントをすべての必要な場所に追加することを忘れたり、知らない場合もあります。
TODOを欠いたメソッドの「隠れた」準最適実装は、長期的なソフトウェアの品質と保守性を損なう可能性がある。
そこで本稿では,TODO-missedメソッドの検出とパッチの新たなタスクを提案し,TODO-comment Patcherと呼ばれる新しいモデルを開発し,TODO-missedメソッドに対するTODOコメントを自動的にパッチする。
私たちのモデルには、オフライン学習とオンライン推論の2つの主要なステージがあります。
オフライン学習の段階では、TDPatcherはGraphCodeBERTと対照的な学習を用いてTODOコメント(自然言語)とその準最適実装(コードフラグメント)をベクトル表現に符号化する。
オンライン推論の段階では、TODOが欠落したメソッドを識別し、オフラインのトレーニングモデルを利用してパッチ位置を決定できる。
私たちは、上位10,000のPython GitHubリポジトリからTODOが導入したメソッドを収集し、その上でTDPatcherを評価してデータセットを構築しました。
大規模な実験結果からは,ベンチマークによるモデルの性能向上が期待できる。
さらに、50のGitHubリポジトリから26 \textit{\major{TODO-missed}メソッドの検出に成功しました。
関連論文リスト
- TDDBench: A Benchmark for Training data detection [42.49625153675721]
トレーニングデータ検出(TDD)は、特定のデータインスタンスを使用して機械学習モデルをトレーニングするかどうかを決定するためのタスクである。
TDDメソッドの有効性を徹底的に評価する包括的なベンチマークはありません。
4つの検出パラダイムで21のTDDメソッドをベンチマークし、そのパフォーマンスを5つの観点から評価します。
論文 参考訳(メタデータ) (2024-11-05T05:48:48Z) - Train Till You Drop: Towards Stable and Robust Source-free Unsupervised 3D Domain Adaptation [62.889835139583965]
本研究では,3次元セマンティックセグメンテーションのための非教師なし領域適応(SFUDA)の問題に取り組む。
ソースデータにアクセスすることなく、ラベルのないターゲットドメインでドメイン適応を実行する。
既存のSFUDAアプローチの一般的な問題は、あるトレーニング時間後にパフォーマンスが低下することです。
論文 参考訳(メタデータ) (2024-09-06T17:13:14Z) - NExT: Teaching Large Language Models to Reason about Code Execution [50.93581376646064]
大規模言語モデル(LLM)のコードは通常、プログラムの表面テキスト形式に基づいて訓練される。
NExTは,プログラムの実行トレースを検査し,実行時の動作を判断する手法である。
論文 参考訳(メタデータ) (2024-04-23T01:46:32Z) - Theoretically Achieving Continuous Representation of Oriented Bounding Boxes [64.15627958879053]
本論文は,オブジェクト指向境界ボックス表現における不連続性を完全に解決しようとする試みである。
本研究では,既存の検出器に容易に統合可能なCOBB(Continuous OBB)という新しい表現法を提案する。
OOD評価のためのオープンソースのディープラーニングフレームワークJittorの検出ツールボックスJDetをベースとした,モジュール化されたベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-29T09:27:40Z) - Semi-supervised Open-World Object Detection [74.95267079505145]
半教師付きオープンワールド検出(SS-OWOD)という,より現実的な定式化を導入する。
提案したSS-OWOD設定では,最先端OWOD検出器の性能が劇的に低下することが実証された。
我々は,MS COCO, PASCAL, Objects365, DOTAの4つのデータセットを用いた実験を行い, 提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-25T07:12:51Z) - Donkii: Can Annotation Error Detection Methods Find Errors in
Instruction-Tuning Datasets? [29.072740239139087]
本稿では,命令チューニングデータ(DONKII)の誤り検出(AED)のための新しいベンチマークを提案する。
これら3つのデータセットには明確な誤りが含まれており、命令調整されたLLMに直接伝播することがある。
この結果から, 正しいAED手法とモデルサイズを選択することは極めて重要であり, 命令調整データのクリーン化にAED手法を用いる方法の実践的提案が導出されることが示唆された。
論文 参考訳(メタデータ) (2023-09-04T15:34:02Z) - CONCORD: Clone-aware Contrastive Learning for Source Code [64.51161487524436]
セルフ教師付き事前トレーニングは、多くのダウンストリームSEタスクに価値のあるジェネリックコード表現を学ぶための牽引役になった。
汎用的な表現学習のために、開発者が日々どのようにコードをコーディングするかは、要因としても不可欠である、と私たちは主張する。
特に,表現空間に良性クローンを近づける自己教師型コントラスト学習戦略であるCONCORDを提案する。
論文 参考訳(メタデータ) (2023-06-05T20:39:08Z) - Measuring Improvement of F$_1$-Scores in Detection of Self-Admitted
Technical Debt [5.750379648650073]
変換器(BERT)アーキテクチャからの双方向表現を利用した新しいアプローチによりSATDの検出を改善する。
トレーニングされたBERTモデルは、プロジェクト横断シナリオにおいて、20プロジェクト中19プロジェクトにおいて、以前のすべてのメソッドの最高のパフォーマンスよりも改善されていることが分かりました。
今後の研究では、SATDデータセットを多様化して、大きなBERTモデルの潜伏電力を最大化する方法について検討する予定である。
論文 参考訳(メタデータ) (2023-03-16T19:47:38Z) - Temporal Action Detection with Global Segmentation Mask Learning [134.26292288193298]
既存の時間的行動検出(TAD)手法は、ビデオ毎に圧倒的に多くの提案を生成することに依存している。
我々は,グローバルマスク(TAGS)を用いた提案不要な時間行動検出モデルを提案する。
私たちの中核となる考え方は、アクションインスタンスのグローバルセグメンテーションマスクをフルビデオ長で共同で学習することです。
論文 参考訳(メタデータ) (2022-07-14T00:46:51Z) - Revisiting Open World Object Detection [39.49589782316664]
以前のOWODの作業は、OWODの定義を建設的に進めることが分かりました。
OWODベンチマーク構築の指針となる5つの基本ベンチマーク原則を提案する。
提案手法は,既存の指標と新しい指標の両方の観点から,他の最先端のオブジェクト検出手法よりも優れている。
論文 参考訳(メタデータ) (2022-01-03T04:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。