論文の概要: Automated Bug Triaging using Instruction-Tuned Large Language Models
- arxiv url: http://arxiv.org/abs/2508.21156v1
- Date: Thu, 28 Aug 2025 18:46:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.850695
- Title: Automated Bug Triaging using Instruction-Tuned Large Language Models
- Title(参考訳): 命令付き大言語モデルを用いた自動バグトリアージ
- Authors: Kiana Kiashemshaki, Arsham Khosravani, Alireza Hosseinpour, Arshia Akhavan,
- Abstract要約: 本稿では,LoRAを用いた大規模言語モデルアダプタ (LLM) の命令調整を行う軽量フレームワークを提案する。
EclipseJDTとMozillaデータセットでテストされたこのモデルは、強力なショートリスト品質を実現する。
以上の結果から,命令調整型LLMは,コストのかかる機能工学やグラフベースの手法に代わる実用的な代替手段である可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bug triaging, the task of assigning new issues to developers, is often slow and inconsistent in large projects. We present a lightweight framework that instruction-tuned large language model (LLM) with LoRA adapters and uses candidate-constrained decoding to ensure valid assignments. Tested on EclipseJDT and Mozilla datasets, the model achieves strong shortlist quality (Hit at 10 up to 0.753) despite modest exact Top-1 accuracy. On recent snapshots, accuracy rises sharply, showing the framework's potential for real-world, human-in-the-loop triaging. Our results suggest that instruction-tuned LLMs offer a practical alternative to costly feature engineering and graph-based methods.
- Abstract(参考訳): 新しい問題を開発者に割り当てるタスクであるバグトリアージは、大きなプロジェクトでは遅く、一貫性がないことが多い。
本稿では,LoRA アダプタを用いた命令調整型大規模言語モデル (LLM) の軽量フレームワークを提案する。
EclipseJDTとMozillaデータセットでテストされたこのモデルは、わずかに正確なTop-1精度にもかかわらず、強いショートリスト品質(最大10まで.753)を達成する。
最近のスナップショットでは、精度が急上昇し、現実世界のヒューマン・イン・ザ・ループ・トリアージの可能性を示している。
この結果から,命令調整型LLMは,コストのかかる機能工学やグラフベースの手法に代わる実用的な代替手段である可能性が示唆された。
関連論文リスト
- Learning LLM Preference over Intra-Dialogue Pairs: A Framework for Utterance-level Understandings [9.763273544617176]
大規模言語モデル(LLM)は、ケース固有の微調整を必要とせずに複雑な対話タスクを処理できることが顕著に示されている。
本稿では,この課題に対処するための,シンプルながら効果的な枠組みを提案する。
本手法は、意図検出や対話状態追跡などのタスクを含む発話ごとの分類問題に特化して設計されている。
論文 参考訳(メタデータ) (2025-03-07T17:46:13Z) - Learning to Solve and Verify: A Self-Play Framework for Code and Test Generation [69.62857948698436]
大規模言語モデル(LLM)の最近の進歩は、コーディングベンチマークのパフォーマンスを改善している。
しかし、手軽に利用できる高品質なデータの枯渇により、改善は停滞している。
本稿では,単一モデルのコードとテスト生成能力を共同で改善するセルフプレイ・ソルバ検証フレームワークであるSol-Verを提案する。
論文 参考訳(メタデータ) (2025-02-20T18:32:19Z) - AutoDetect: Towards a Unified Framework for Automated Weakness Detection in Large Language Models [95.09157454599605]
大規模言語モデル(LLM)はますます強力になってきていますが、それでも顕著ですが微妙な弱点があります。
従来のベンチマークアプローチでは、特定のモデルの欠陥を徹底的に特定することはできない。
さまざまなタスクにまたがるLLMの弱点を自動的に露呈する統合フレームワークであるAutoDetectを導入する。
論文 参考訳(メタデータ) (2024-06-24T15:16:45Z) - Language Models are Better Bug Detector Through Code-Pair Classification [0.26107298043931204]
本稿では,バグギー版とバグギー版の両方をモデルに付与するコードペア分類タスクを提案し,バグギー版とバグギー版を識別する。
実験によると、LLMはバグのないバージョンのコードからバグを拾うことができ、コードペアの分類タスクはスニペットを与え、バグが存在するかどうかを判断するよりもずっと簡単である。
論文 参考訳(メタデータ) (2023-11-14T07:20:57Z) - Self-Checker: Plug-and-Play Modules for Fact-Checking with Large Language Models [75.75038268227554]
Self-Checkerはファクトチェックを容易にするプラグインとプレイモジュールからなるフレームワークである。
このフレームワークは、低リソース環境でファクトチェックシステムを構築するための、高速で効率的な方法を提供する。
論文 参考訳(メタデータ) (2023-05-24T01:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。