論文の概要: ROSE: Transformer-Based Refactoring Recommendation for Architectural Smells
- arxiv url: http://arxiv.org/abs/2507.12561v1
- Date: Wed, 16 Jul 2025 18:19:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-18 20:10:24.239423
- Title: ROSE: Transformer-Based Refactoring Recommendation for Architectural Smells
- Title(参考訳): ROSE: トランスフォーマーベースのアーキテクチャスメルのためのリファクタリングレコメンデーション
- Authors: Samal Nursapa, Anastassiya Samuilova, Alessio Bucaioni. Phuong T. Nguyen,
- Abstract要約: 既存のツールはそのような臭いを検知するが、修正する方法を示唆することは滅多にない。
11,149のオープンソースJavaプロジェクトから抽出された200万のインスタンス上で、両方のモデルを微調整します。
以上の結果から, 変圧器を用いたモデルでは, 臭気検出と有効修理のギャップを効果的に埋めることができることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Architectural smells such as God Class, Cyclic Dependency, and Hub-like Dependency degrade software quality and maintainability. Existing tools detect such smells but rarely suggest how to fix them. This paper explores the use of pre-trained transformer models--CodeBERT and CodeT5--for recommending suitable refactorings based on detected smells. We frame the task as a three-class classification problem and fine-tune both models on over 2 million refactoring instances mined from 11,149 open-source Java projects. CodeT5 achieves 96.9% accuracy and 95.2% F1, outperforming CodeBERT and traditional baselines. Our results show that transformer-based models can effectively bridge the gap between smell detection and actionable repair, laying the foundation for future refactoring recommendation systems. We release all code, models, and data under an open license to support reproducibility and further research.
- Abstract(参考訳): 神クラス、サイクル依存、ハブのような依存関係といったアーキテクチャ上の臭いは、ソフトウェアの品質と保守性を低下させます。
既存のツールはそのような臭いを検知するが、修正する方法を示唆することは滅多にない。
本稿では,検出された臭いに基づいて適切なリファクタリングを推奨するために,事前学習したトランスフォーマーモデル(CodeBERTとCodeT5)の使用について検討する。
11,149のオープンソースJavaプロジェクトから抽出された200万以上のリファクタリングインスタンス上で、両方のモデルを微調整します。
CodeT5は96.9%の精度と95.2%のF1を達成した。
以上の結果から, 変圧器を用いたモデルでは, 臭気検出と有効修理のギャップを効果的に埋めることができ, 将来のリファクタリングレコメンデーションシステムの基礎を築いた。
再現性とさらなる研究をサポートするために、すべてのコード、モデル、データをオープンライセンスでリリースします。
関連論文リスト
- RefModel: Detecting Refactorings using Foundation Models [2.2670483018110366]
本稿では,RefModel というツールで実装された基礎モデルによる検出の実現可能性について検討する。
Phi4-14B と Claude 3.5 Sonnet を,人工的に生成した Java プログラムに適用した 858 個の単一動作変換のデータセット上で評価した。
実世界の環境では、Claude 3.5 SonnetとGemini 2.5 Proが共同で、すべてのトランスフォーメーションの97%を特定し、最高のパフォーマンスの静的分析ベースのツールを上回った。
論文 参考訳(メタデータ) (2025-07-15T14:20:56Z) - Exploring Diffusion Transformer Designs via Grafting [82.91123758506876]
計算予算の少ない新しいアーキテクチャを実現するために,事前に訓練された拡散変換器(DiT)を編集する簡単な手法であるグラフト方式を提案する。
演算子置換からアーキテクチャ再構成に至るまで,事前訓練したDiTをグラフトすることで,新しい拡散モデルの設計を探索できることが示されている。
論文 参考訳(メタデータ) (2025-06-05T17:59:40Z) - Learning to Solve and Verify: A Self-Play Framework for Code and Test Generation [69.62857948698436]
大規模言語モデル(LLM)の最近の進歩は、コーディングベンチマークのパフォーマンスを改善している。
しかし、手軽に利用できる高品質なデータの枯渇により、改善は停滞している。
本稿では,単一モデルのコードとテスト生成能力を共同で改善するセルフプレイ・ソルバ検証フレームワークであるSol-Verを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:32:19Z) - Automated Unit Test Refactoring [10.847400457238423]
テストの臭いは、設計プラクティスの貧弱さとドメイン知識の不足から生じます。
我々は,Javaプロジェクトにおける自動テストのための文脈拡張型LLMベースのフレームワークUTRefactorを提案する。
6つのオープンソースのJavaプロジェクトから879のテストに対してUTRefactorを評価し、テストの匂いを2,375から265に減らし、89%の削減を実現した。
論文 参考訳(メタデータ) (2024-09-25T08:42:29Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - RAP-Gen: Retrieval-Augmented Patch Generation with CodeT5 for Automatic
Program Repair [75.40584530380589]
新たな検索型パッチ生成フレームワーク(RAP-Gen)を提案する。
RAP-Gen 以前のバグ修正ペアのリストから取得した関連する修正パターンを明示的に活用する。
RAP-GenをJavaScriptのTFixベンチマークとJavaのCode RefinementとDefects4Jベンチマークの2つのプログラミング言語で評価する。
論文 参考訳(メタデータ) (2023-09-12T08:52:56Z) - Predicting the Impact of Batch Refactoring Code Smells on Application
Resource Consumption [3.5557219875516646]
本稿では,ソフトウェアコードの臭いのバッチと資源消費の関係について検討する。
次に、コードの臭いがリソース消費に与える影響を予測するアルゴリズムを設計することを目的とする。
論文 参考訳(メタデータ) (2023-06-27T19:28:05Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - AutoBERT-Zero: Evolving BERT Backbone from Scratch [94.89102524181986]
そこで本稿では,提案するハイブリッドバックボーンアーキテクチャを自動検索するOP-NASアルゴリズムを提案する。
提案するOP-NASの効率を向上させるために,探索アルゴリズムと候補モデルの評価を最適化する。
実験の結果、検索されたアーキテクチャ(AutoBERT-Zero)は、様々な下流タスクにおいてBERTとそのバリエーションの異なるモデル容量を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-07-15T16:46:01Z) - How We Refactor and How We Document it? On the Use of Supervised Machine
Learning Algorithms to Classify Refactoring Documentation [25.626914797750487]
リファクタリングは、外部の振る舞いを変えることなく、システムの設計を改善する技術である。
この研究はコミットを、従来のBugFixやFunctionalのカテゴリとともに、内部QA、外部QA、Code Smell Resolutionの3つのカテゴリに分類する。
分類結果をよりよく理解するために、私たちはコミットメッセージを分析して、開発者が定期的に臭いを説明するために使用するパターンを抽出しました。
論文 参考訳(メタデータ) (2020-10-26T20:33:17Z) - Toward the Automatic Classification of Self-Affirmed Refactoring [22.27416971215152]
SAR(Self-Affirmed Refactoring)は、開発者がコミットメッセージでアクティビティをドキュメント化する方法について調査するために導入された。
まず、コミットが開発者関連の事象を記述しているかを識別し、共通の品質改善カテゴリに従って分類する2段階のアプローチを提案する。
我々のモデルは、コミットを正確に分類し、パターンベースのランダムアプローチより優れ、より関連する40のSARパターンを発見できる。
論文 参考訳(メタデータ) (2020-09-19T18:35:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。