論文の概要: Dealing with SonarQube Cloud: Initial Results from a Mining Software Repository Study
- arxiv url: http://arxiv.org/abs/2508.18816v1
- Date: Tue, 26 Aug 2025 08:54:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.762528
- Title: Dealing with SonarQube Cloud: Initial Results from a Mining Software Repository Study
- Title(参考訳): SonarQube Cloudによるディーリング - マイニングソフトウェアリポジトリ調査の初期結果
- Authors: Sabato Nocera, Davide Fucci, Giuseppe Scanniello,
- Abstract要約: 静的コード分析(SCA)ツールは、コード品質標準を強制するために広く採用されています。
本稿では、GitHubプロジェクトで人気のSCAツールであるSonarQube Cloudの使い方とカスタマイズについて検討する。
- 参考スコア(独自算出の注目度): 5.760706574916653
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Background: Static Code Analysis (SCA) tools are widely adopted to enforce code quality standards. However, little is known about how open-source projects use and customize these tools. Aims: This paper investigates how GitHub projects use and customize a popular SCA tool, namely SonarQube Cloud. Method: We conducted a mining study of GitHub projects that are linked through GitHub Actions to SonarQube Cloud projects. Results: Among 321 GitHub projects using SonarQube Cloud, 81% of them are correctly connected to SonarQube Cloud projects, while others exhibit misconfigurations or restricted access. Among 265 accessible SonarQube Cloud projects, 75% use the organization's default quality gate, i.e., a set of conditions that deployed source code must meet to pass automated checks. While 55% of the projects use the built-in quality gate provided by SonarQube Cloud, 45% of them customize their quality gate with different conditions. Overall, the most common quality conditions align with SonarQube Cloud's "Clean as You Code" principle and enforce security, maintainability, reliability, coverage, and a few duplicates on newly added or modified source code. Conclusions: Many projects rely on predefined configurations, yet a significant portion customize their configurations to meet specific quality goals. Building on our initial results, we envision a future research agenda linking quality gate configurations to actual software outcomes (e.g., improvement of software security). This would enable evidence-based recommendations for configuring SCA tools like SonarQube Cloud in various contexts.
- Abstract(参考訳): 背景: 静的コード分析(SCA)ツールは、コード品質標準を強制するために広く採用されています。
しかし、オープンソースプロジェクトがこれらのツールをどのように使い、カスタマイズしているかについては、ほとんど分かっていない。
Aims: この記事では、GitHubプロジェクトが一般的なSCAツール、すなわちSonarQube Cloudをどのように使い、カスタマイズするかについて調査します。
方法: 私たちはGitHub ActionsからSonarQube CloudプロジェクトにリンクしたGitHubプロジェクトのマイニング調査を実施しました。
結果: SonarQube Cloudを使用している321のGitHubプロジェクトのうち、81%がSonarQube Cloudプロジェクトに正しく接続されている。
アクセス可能な265のSonarQube Cloudプロジェクトの中で、75%は組織のデフォルト品質ゲートを使用している。
プロジェクトの55%はSonarQube Cloudのビルトイン品質ゲートを使用しているが、45%は異なる条件で品質ゲートをカスタマイズしている。
全体として、最も一般的な品質条件は、SonarQube Cloudの"Clean as You Code"原則と一致し、セキュリティ、保守性、信頼性、カバレッジ、新たに追加されたソースコードや修正されたソースコードの重複を強制する。
結論: 多くのプロジェクトは事前定義された設定に依存していますが、大きな部分は特定の品質目標を満たすように構成をカスタマイズします。
最初の結果に基づいて、私たちは、品質ゲートの構成と実際のソフトウェア結果(例えば、ソフトウェアセキュリティの改善)をリンクする将来の研究課題を構想します。
これにより、様々なコンテキストでSonarQube CloudのようなSCAツールを設定するためのエビデンスベースのレコメンデーションが可能になる。
関連論文リスト
- SwingArena: Competitive Programming Arena for Long-context GitHub Issue Solving [90.32201622392137]
We present SwingArena, a competitive evaluation framework for Large Language Models (LLMs)。
従来の静的ベンチマークとは異なり、SwingArenaはLLMをイテレーションとして組み合わせて、テストケースを作成し、継続的インテグレーション(CI)パイプラインを通じてパッチを検証するパッチとレビュアーを生成することで、ソフトウェアのコラボレーションプロセスをモデル化する。
論文 参考訳(メタデータ) (2025-05-29T18:28:02Z) - AI-Driven Code Refactoring: Using Graph Neural Networks to Enhance Software Maintainability [0.4779196219827508]
本研究では、抽象構文木(AST)を用いて、コードの変換ツールとしてグラフニューラルネットワーク(GNN)を探索し、ソフトウェアの保守性を高める。
CodeSearchNetとカスタム75000ファイルのGitHub Pythonコーパスから200万スニペットのデータセットを分析し、GNNとルールベースのSonarQubeと決定ツリーを比較している。
GNNは92%の精度を実現し、複雑性を35%削減し、結合を33%削減し、SonarQubeと決定木を上回っている。
論文 参考訳(メタデータ) (2025-04-14T16:58:54Z) - SWE-Fixer: Training Open-Source LLMs for Effective and Efficient GitHub Issue Resolution [56.9361004704428]
大規模言語モデル(LLM)は、様々な複雑なタスクにまたがる顕著な習熟度を示している。
SWE-Fixerは、GitHubの問題を効果的かつ効率的に解決するために設計された、新しいオープンソースフレームワークである。
我々は,SWE-Bench LiteとVerifiedベンチマークに対するアプローチを評価し,オープンソースモデル間の競合性能を実現する。
論文 参考訳(メタデータ) (2025-01-09T07:54:24Z) - Long Code Arena: a Set of Benchmarks for Long-Context Code Models [75.70507534322336]
Long Code Arenaは、プロジェクト全体のコンテキストを必要とするコード処理タスクのための6つのベンチマークスイートである。
これらのタスクは、ライブラリベースのコード生成、CIビルドの修復、プロジェクトレベルのコード補完、コミットメッセージ生成、バグローカライゼーション、モジュールの要約といった、コード処理のさまざまな側面をカバーする。
各タスクに対して、テスト用の手作業によるデータセット、評価スイート、オープンソースのベースラインソリューションを提供しています。
論文 参考訳(メタデータ) (2024-06-17T14:58:29Z) - Testing GitHub projects on custom resources using unprivileged
Kubernetes runners [1.137903861863692]
GitHubはソフトウェアプロジェクトをホスティングするための人気のあるリポジトリだ。
ネイティブなGitHub Actionsにより、ソフトウェア開発者が新しいコミットを検証するのが容易になり、新しいコードが大きなバグを導入しないという自信を持つことができる。
無償で利用可能なテスト環境は、いくつかの一般的な設定に限られるが、カスタムのAction Runnerで拡張できる。
論文 参考訳(メタデータ) (2023-05-17T16:31:41Z) - CleanRL: High-quality Single-file Implementations of Deep Reinforcement
Learning Algorithms [0.0]
CleanRLはオープンソースのライブラリで、Deep Reinforcement Learningアルゴリズムの高品質なシングルファイル実装を提供する。
シンプルでスケーラブルな開発エクスペリエンスを提供し、運用ツールをシンプルに統合します。
論文 参考訳(メタデータ) (2021-11-16T22:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。