論文の概要: Identifying Concurrency Bug Reports via Linguistic Patterns
- arxiv url: http://arxiv.org/abs/2601.16338v1
- Date: Thu, 22 Jan 2026 21:54:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.418647
- Title: Identifying Concurrency Bug Reports via Linguistic Patterns
- Title(参考訳): 言語パターンによる並行バグレポートの同定
- Authors: Shuai Shao, Lu Xiao, Tingting Yu,
- Abstract要約: 本稿では,バグ報告を自動的に識別する言語パターンに基づくフレームワークを提案する。
730件のバグレポートから58件の言語パターンを抽出した。
我々は,従来の機械学習,大規模言語モデル,事前学習された言語モデルにおいて,マッチング,学習,プロンプトベース,微調整の4つの補完的アプローチを評価する。
- 参考スコア(独自算出の注目度): 5.794959117360381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the growing ubiquity of multi-core architectures, concurrent systems have become essential but increasingly prone to complex issues such as data races and deadlocks. While modern issue-tracking systems facilitate the reporting of such problems, labeling concurrency-related bug reports remains a labor-intensive and error-prone task. This paper presents a linguistic-pattern-based framework for automatically identifying concurrency bug reports. We derive 58 distinct linguistic patterns from 730 manually labeled concurrency bug reports, organized across four levels: word-level (keywords), phrase-level (n-grams), sentence-level (semantic), and bug report-level (contextual). To assess their effectiveness, we evaluate four complementary approaches-matching, learning, prompt-based, and fine-tuning-spanning traditional machine learning, large language models (LLMs), and pre-trained language models (PLMs). Our comprehensive evaluation on 12 large-scale open-source projects (10,920 issue reports from GitHub and Jira) demonstrates that fine-tuning PLMs with linguistic-pattern-enriched inputs achieves the best performance, reaching a precision of 91% on GitHub and 93% on Jira, and maintaining strong precision on post cut-off data (91%). The contributions of this work include: (1) a comprehensive taxonomy of linguistic patterns for concurrency bugs, (2) a novel fine-tuning strategy that integrates domain-specific linguistic knowledge into PLMs, and (3) a curated, labeled dataset to support reproducible research. Together, these advances provide a foundation for improving the automation, precision, and interpretability of concurrency bug classification.
- Abstract(参考訳): マルチコアアーキテクチャの普及に伴い、並列システムは不可欠になってきているが、データ競合やデッドロックといった複雑な問題に傾向が増している。
現代の課題追跡システムはそのような問題の報告を容易にするが、並行性に関連するバグレポートのラベル付けは、労働集約的でエラーが生じる課題である。
本稿では,並列性バグレポートを自動的に識別する言語パターンに基づくフレームワークを提案する。
単語レベル(キーワード)、フレーズレベル(nグラム)、文レベル(セマンティック)、バグレポートレベル(コンテキスト)の4つのレベルにまたがって構成された730の同時並行バグレポートから58の言語パターンを抽出した。
提案手法の有効性を評価するため,従来の機械学習,大規模言語モデル(LLM),事前学習言語モデル(PLM)の4つの補完的アプローチ(マッチング,学習,プロンプトベース,微調整スパンニング)を評価した。
12の大規模なオープンソースプロジェクト(GitHubとJiraの10,920のイシューレポート)に関する包括的な評価は、言語パターンに富んだ入力を持つ微調整のPLMが最高のパフォーマンスを達成し、GitHubで91%、Jiraで93%、カットオフ後のデータで91%の精度を維持していることを示している。
本研究の貢献は,(1)同時進行バグに対する言語パターンの包括的分類,(2)ドメイン固有の言語知識をPLMに統合する新たな微調整戦略,(3)再現可能な研究を支援するためのラベル付きデータセットである。
これらの進歩は、同時実行バグ分類の自動化、精度、解釈性を改善する基盤を提供する。
関連論文リスト
- VisCoder2: Building Multi-Language Visualization Coding Agents [63.63232038173407]
可視化符号化エージェントを進化させるための3つの相補的なリソースを紹介する。
VisCoder2は、強力なオープンソースベースラインを著しく上回り、プロプライエタリなモデルのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2025-10-24T18:03:57Z) - Cross-Lingual Pitfalls: Automatic Probing Cross-Lingual Weakness of Multilingual Large Language Models [55.14276067678253]
本稿では,Large Language Models (LLMs) における言語間関係の弱点を効率的に同定するための新しい手法を提案する。
この手法を用いて16言語で6,000以上のバイリンガルペアからなる新しいデータセットを構築し、最先端のモデルにおいても弱点を明らかにする効果を実証した。
さらに,言語的類似性と言語間の弱点との関係について検討し,言語的関連言語が類似した演奏パターンを共有することを明らかにした。
論文 参考訳(メタデータ) (2025-05-24T12:31:27Z) - Towards Typologically Aware Rescoring to Mitigate Unfaithfulness in Lower-Resource Languages [9.426642998924724]
多言語大言語モデルは、資源制約言語で非忠実な出力を生成する。
このような設定における不誠実さを軽減するため、我々は計算学的に軽量な補助モデルを用いて、より大きなアーキテクチャの出力を再評価する。
我々は,700MB未満のデータに対して,スクラッチから事前訓練した単言語4層BERTモデルにより,忠実な要約を88.33%の平均精度で識別可能であることを示した。
論文 参考訳(メタデータ) (2025-02-24T21:22:19Z) - English Please: Evaluating Machine Translation with Large Language Models for Multilingual Bug Reports [0.0]
本研究は,バグ報告における機械翻訳(MT)性能の総合評価としては初めてである。
私たちは、DeepL、AWS Translate、ChatGPT、Claude、Gemini、LLaMA、Mistralといった大規模言語モデルの性能を分析します。
我々は, BLEU, BERTScore, COMET, METEOR, ROUGE-Allongsideの分類指標(精度, 精度, リコール, F1スコア)を含むMT評価指標を多用する。
論文 参考訳(メタデータ) (2025-02-20T07:47:03Z) - EquiBench: Benchmarking Large Language Models' Reasoning about Program Semantics via Equivalence Checking [58.15568681219339]
大規模言語モデル(LLM)を評価するための新しいベンチマークであるEquiBenchを紹介する。
このタスクは、プログラムのセマンティクスについて推論するモデルの能力を直接テストする。
19の最先端LCMを評価し、最も難しいカテゴリでは、最高の精度は63.8%と76.2%であり、50%のランダムベースラインよりわずかに高い。
論文 参考訳(メタデータ) (2025-02-18T02:54:25Z) - DeMuX: Data-efficient Multilingual Learning [57.37123046817781]
DEMUXは、大量の重複しない多言語データからラベルを付けるための正確なデータポイントを規定するフレームワークである。
エンドツーエンドのフレームワークは言語に依存しず、モデル表現を記述し、多言語的ターゲット設定をサポートしています。
論文 参考訳(メタデータ) (2023-11-10T20:09:08Z) - OneAligner: Zero-shot Cross-lingual Transfer with One Rich-Resource
Language Pair for Low-Resource Sentence Retrieval [91.76575626229824]
文検索タスク用に特別に設計されたアライメントモデルであるOneAlignerを提案する。
大規模並列多言語コーパス(OPUS-100)の全ての言語ペアで訓練すると、このモデルは最先端の結果が得られる。
実験結果から,文アライメントタスクの性能はモノリンガルおよび並列データサイズに大きく依存することがわかった。
論文 参考訳(メタデータ) (2022-05-17T19:52:42Z) - Detecting Requirements Smells With Deep Learning: Experiences,
Challenges and Future Work [9.44316959798363]
本研究の目的は,手動でラベル付きデータセットを作成し,アンサンブル学習,深層学習(DL),単語埋め込みや伝達学習といった手法を用いて一般化問題を克服することで,従来の作業を改善することである。
現在の調査結果は、データセットが不均衡であり、どのクラスをもっと追加すべきかを示している。
論文 参考訳(メタデータ) (2021-08-06T12:45:15Z) - TextFlint: Unified Multilingual Robustness Evaluation Toolkit for
Natural Language Processing [73.16475763422446]
NLPタスク(TextFlint)のための多言語ロバスト性評価プラットフォームを提案する。
普遍的なテキスト変換、タスク固有の変換、敵攻撃、サブポピュレーション、およびそれらの組み合わせを取り入れ、包括的な堅牢性分析を提供する。
TextFlintは、モデルの堅牢性の欠点に対処するために、完全な分析レポートとターゲットとした拡張データを生成します。
論文 参考訳(メタデータ) (2021-03-21T17:20:38Z) - MTOP: A Comprehensive Multilingual Task-Oriented Semantic Parsing
Benchmark [31.91964553419665]
我々はMTOPと呼ばれる新しい多言語データセットを提案し、11ドメインの6言語で100kの注釈付き発話を合成する。
既存の2つの多言語データセットに対して、Slot F1上の+6.3ポイントの平均的な改善を、実験で報告された最良の結果よりも達成する。
本稿では,事前学習モデルと自動翻訳とアライメントを組み合わせたゼロショット性能と,スロットラベル投影におけるノイズ低減のための遠隔監視手法を提案する。
論文 参考訳(メタデータ) (2020-08-21T07:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。