論文の概要: Detecting Metadata-Related Bugs in Enterprise Applications
- arxiv url: http://arxiv.org/abs/2502.14463v1
- Date: Thu, 20 Feb 2025 11:35:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:28:56.579129
- Title: Detecting Metadata-Related Bugs in Enterprise Applications
- Title(参考訳): エンタープライズアプリケーションにおけるメタデータ関連バグの検出
- Authors: Md Mahir Asef Kabir, Xiaoyin Wang, Na Meng,
- Abstract要約: 本稿では,(1)メタデータチェックルールを規定するためにドメインの専門家が利用できるドメイン固有言語であるRSLと,(2)ルール違反をチェックするためのRSLルールとEAを利用するツールであるMeCheckについて述べる。
評価のために、SpringとJUnitのドキュメントを調べ、15のルールを手動で定義し、115のオープンソースEAを持つ2つのデータセットを作成しました。
MeCheck氏は、最初のデータセットのバグを100%の精度、96%のリコール、98%のFスコアで特定した。第2データセットで156のバグを報告し、53のバグがすでに開発者によって修正されている。
- 参考スコア(独自算出の注目度): 10.02158433451136
- License:
- Abstract: When building enterprise applications (EAs) on Java frameworks (e.g., Spring), developers often configure application components via metadata (i.e., Java annotations and XML files). It is challenging for developers to correctly use metadata, because the usage rules can be complex and existing tools provide limited assistance. When developers misuse metadata, EAs become misconfigured, which defects can trigger erroneous runtime behaviors or introduce security vulnerabilities. To help developers correctly use metadata, this paper presents (1) RSL -- a domain-specific language that domain experts can adopt to prescribe metadata checking rules, and (2) MeCheck -- a tool that takes in RSL rules and EAs to check for rule violations. With RSL, domain experts (e.g., developers of a Java framework) can specify metadata checking rules by defining content consistency among XML files, annotations, and Java code. Given such RSL rules and a program to scan, MeCheck interprets rules as cross-file static analyzers, which analyzers scan Java and/or XML files to gather information and look for consistency violations. For evaluation, we studied the Spring and JUnit documentation to manually define 15 rules, and created 2 datasets with 115 open-source EAs. The first dataset includes 45 EAs, and the ground truth of 45 manually injected bugs. The second dataset includes multiple versions of 70 EAs. We observed that MeCheck identified bugs in the first dataset with 100% precision, 96% recall, and 98% F-score. It reported 156 bugs in the second dataset, 53 of which bugs were already fixed by developers. Our evaluation shows that MeCheck helps ensure the correct usage of metadata.
- Abstract(参考訳): Javaフレームワーク(Springなど)上でエンタープライズアプリケーション(EA)を構築する場合、開発者はメタデータ(JavaアノテーションやXMLファイルなど)を通じてアプリケーションコンポーネントを構成することが多い。
使用ルールが複雑になり、既存のツールが限られたアシストを提供するため、開発者がメタデータを正しく使用するのは難しい。
開発者がメタデータを誤用すると、EAは誤って設定され、欠陥は誤ったランタイム動作を引き起こしたり、セキュリティ上の脆弱性を発生させる可能性がある。
本稿では,(1)メタデータの正確な使用を支援するために,(1)ドメインの専門家がメタデータチェックルールを処方するために使用可能なドメイン固有言語であるRSL,(2)ルール違反をチェックするためのRSLルールとEAを利用するツールであるMeCheckを提案する。
RSLでは、ドメインの専門家(例えばJavaフレームワークの開発者)が、XMLファイル、アノテーション、Javaコード間のコンテンツ一貫性を定義することで、メタデータチェックルールを指定できます。
このようなRSLルールとスキャンするプログラムが与えられた後、MeCheckはルールをクロスファイルの静的アナライザとして解釈する。
評価のために、SpringとJUnitのドキュメントを調べ、15のルールを手動で定義し、115のオープンソースEAを持つ2つのデータセットを作成しました。
最初のデータセットには45個のEAが含まれており、45個のバグを手動で注入する。
第2のデータセットには、70のEAの複数のバージョンが含まれている。
We observed that MeCheck identified bugs in the first dataset with 100% precision, 96% recall, 98% F-score。
2番目のデータセットには156のバグが報告されており、53のバグはすでに開発者によって修正されている。
評価の結果,MeCheckはメタデータの適切な使用を保証するのに有効であることがわかった。
関連論文リスト
- CLOVER: A Test Case Generation Benchmark with Coverage, Long-Context, and Verification [71.34070740261072]
本稿では,テストケースの生成と完成におけるモデルの能力を評価するためのベンチマークCLOVERを提案する。
ベンチマークはタスク間でのコード実行のためにコンテナ化されています。
論文 参考訳(メタデータ) (2025-02-12T21:42:56Z) - METAMON: Finding Inconsistencies between Program Documentation and Behavior using Metamorphic LLM Queries [10.9334354663311]
本稿では,既存の検索ベーステスト生成技術を用いて,現在のプログラム動作をテストケース形式でキャプチャするMETAMONを提案する。
MeTAMONはこのタスクでメタモルフィックテストと自己整合性によってサポートされている。
Defects4J v2.0.1の5つのオープンソースプロジェクトを使って生成された9,482対のコードドキュメンテーションとコードスニペットに対する実証的な評価は、METAMONがコードとドキュメントの不整合を精度0.72、リコール0.48で分類できることを示している。
論文 参考訳(メタデータ) (2025-02-05T00:42:50Z) - MMLU-CF: A Contamination-free Multi-task Language Understanding Benchmark [57.999567012489706]
我々は,MMLU-CFと呼ばれる汚染のない,より困難なベンチマークを提案する。
このベンチマークは、意図しないデータ漏洩と悪意のないデータ漏洩の両方を回避することで、LLMの世界の知識に対する理解を再評価する。
GPT-4o は 5 ショットスコア73.4% と 0 ショットスコア71.9% しか達成できない。
論文 参考訳(メタデータ) (2024-12-19T18:58:04Z) - GPT-HateCheck: Can LLMs Write Better Functional Tests for Hate Speech Detection? [50.53312866647302]
HateCheckは、合成データに対してきめ細かいモデル機能をテストするスイートである。
GPT-HateCheckは,スクラッチからより多彩で現実的な機能テストを生成するフレームワークである。
クラウドソースのアノテーションは、生成されたテストケースが高品質であることを示しています。
論文 参考訳(メタデータ) (2024-02-23T10:02:01Z) - RESTRuler: Towards Automatically Identifying Violations of RESTful
Design Rules in Web APIs [3.4711214580685557]
静的解析を用いてオープンAPI記述における設計規則違反を検出する,JavaベースのオープンソースツールであるRESTRulerを紹介する。
堅牢性のため、RESTRulerは、使用済みの現実世界のOpenAPI定義の99%をうまく分析した。
パフォーマンス効率向上のために、このツールは大部分のファイルに対して良好に動作し、CPUとRAM使用率の低い23秒未満で84%の分析が可能になった。
論文 参考訳(メタデータ) (2024-02-21T11:25:22Z) - DebugBench: Evaluating Debugging Capability of Large Language Models [80.73121177868357]
DebugBench - LLM(Large Language Models)のベンチマーク。
C++、Java、Pythonの4つの主要なバグカテゴリと18のマイナータイプをカバーする。
ゼロショットシナリオで2つの商用および4つのオープンソースモデルを評価する。
論文 参考訳(メタデータ) (2024-01-09T15:46:38Z) - SkipAnalyzer: A Tool for Static Code Analysis with Large Language Models [12.21559364043576]
SkipAnalyzerは、静的コード解析のための大規模言語モデル(LLM)ベースのツールである。
概念実証として、SkipAnalyzerはChatGPT上に構築されている。
論文 参考訳(メタデータ) (2023-10-27T23:17:42Z) - Automated Bug Generation in the era of Large Language Models [6.0770779409377775]
BugFarmは任意のコードを複数の複雑なバグに変換する。
BUGFARMが生成した1.9万以上の変異株から435k以上のバグを総合的に評価する。
論文 参考訳(メタデータ) (2023-10-03T20:01:51Z) - An Analysis of Bugs In Persistent Memory Application [0.0]
我々は,NVMレベルのハッシュPMアプリケーションをテストするために,オープンソースの自動バグ検出ツール(AGAMOTTO)を評価した。
私たちの忠実な検証ツールは、PMDKライブラリで65の新しいNVMレベルのハッシュバグを発見しました。
本稿では,PM-Aware 探索アルゴリズムを用いたディープQ学習探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-19T23:12:01Z) - Omni-DETR: Omni-Supervised Object Detection with Transformers [165.4190908259015]
我々は、ラベルなし、完全ラベル付き、弱ラベル付きアノテーションを使用できるOmni教師付きオブジェクト検出の問題を考察する。
この統一アーキテクチャの下では、異なる種類の弱いラベルを利用して正確な擬似ラベルを生成することができる。
弱いアノテーションは検出性能を向上させるのに役立ち、それらの混合はアノテーションのコストと精度のトレードオフを改善することができる。
論文 参考訳(メタデータ) (2022-03-30T06:36:09Z) - D2A: A Dataset Built for AI-Based Vulnerability Detection Methods Using
Differential Analysis [55.15995704119158]
静的解析ツールによって報告されたラベル問題に対する差分解析に基づくアプローチであるD2Aを提案する。
D2Aを使用して大きなラベル付きデータセットを生成し、脆弱性識別のためのモデルをトレーニングします。
論文 参考訳(メタデータ) (2021-02-16T07:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。