論文の概要: LIA: Supervised Fine-Tuning of Large Language Models for Automatic Issue Assignment
- arxiv url: http://arxiv.org/abs/2601.01780v1
- Date: Mon, 05 Jan 2026 04:26:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.762068
- Title: LIA: Supervised Fine-Tuning of Large Language Models for Automatic Issue Assignment
- Title(参考訳): LIA: 自動課題割り当てのための大規模言語モデルの微調整
- Authors: Arsham Khosravani, Alireza Hosseinpour, Arshia Akhavan, Mehdi Keshani, Abbas Heydarnoori,
- Abstract要約: LIAは、タイトルや説明から直接、ランク付けされた開発者のレコメンデーションを生成することを学ぶ。
DeepSeek-R1-Distill-Llama-8Bの事前訓練ベースモデルと比較して、Hit@1は+187.8%高い。
- 参考スコア(独自算出の注目度): 1.4353812560047186
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Issue assignment is a critical process in software maintenance, where new issue reports are validated and assigned to suitable developers. However, manual issue assignment is often inconsistent and error-prone, especially in large open-source projects where thousands of new issues are reported monthly. Existing automated approaches have shown promise, but many rely heavily on large volumes of project-specific training data or relational information that is often sparse and noisy, which limits their effectiveness. To address these challenges, we propose LIA (LLM-based Issue Assignment), which employs supervised fine-tuning to adapt an LLM, DeepSeek-R1-Distill-Llama-8B in this work, for automatic issue assignment. By leveraging the LLM's pretrained semantic understanding of natural language and software-related text, LIA learns to generate ranked developer recommendations directly from issue titles and descriptions. The ranking is based on the model's learned understanding of historical issue-to-developer assignments, using patterns from past tasks to infer which developers are most likely to handle new issues. Through comprehensive evaluation, we show that LIA delivers substantial improvements over both its base pretrained model and state-of-the-art baselines. It achieves up to +187.8% higher Hit@1 compared to the DeepSeek-R1-Distill-Llama-8B pretrained base model, and outperforms four leading issue assignment methods by as much as +211.2% in Hit@1 score. These results highlight the effectiveness of domain-adapted LLMs for software maintenance tasks and establish LIA as a practical, high-performing solution for issue assignment.
- Abstract(参考訳): 課題の割り当ては、ソフトウェアメンテナンスにおいて重要なプロセスであり、新しい問題レポートが検証され、適切な開発者に割り当てられる。
しかし、特に毎月数千の新たな問題が報告されている大規模なオープンソースプロジェクトでは、手動のイシューの割り当ては一貫性がなく、エラーが発生しやすいことが多い。
既存の自動化アプローチは将来性を示しているが、多くはプロジェクト固有のトレーニングデータやリレーショナル情報に大きく依存している。
これらの課題に対処するため,LLM(DeepSeek-R1-Distill-Llama-8B)を教師付き微調整を用いて自動課題割り当てを行うLIA(LLM-based Issue Assignment)を提案する。
LLMの自然言語とソフトウェア関連テキストに対する事前訓練されたセマンティック理解を活用することで、IAはタイトルや記述から直接、ランク付けされた開発者の推薦を生成することを学ぶ。
ランキングは、過去のタスクからのパターンを使用して、どの開発者が新しい問題に最も対処する可能性が高いかを推測する、歴史的なイシュー・トゥ・ディベロッパの割り当てについて、モデルが学習した理解に基づいています。
包括的評価により,LIAはベーストレーニング済みモデルと最先端ベースラインの両方に対して,大幅な改善を実現していることを示す。
DeepSeek-R1-Distill-Llama-8Bの事前訓練ベースモデルと比較して、Hit@1は+187.8%高い。
これらの結果は、ソフトウェア保守作業におけるドメイン適応型LLMの有効性を強調し、課題割り当てのための実用的で高性能なソリューションとしてLIAを確立した。
関連論文リスト
- Verifying the Verifiers: Unveiling Pitfalls and Potentials in Fact Verifiers [59.168391398830515]
我々は,14のファクトチェックベンチマークのサンプルを用いて,12の事前学習LDMと1つの特殊ファクト検証器を評価した。
データセットにおけるアノテーションエラーとあいまいさに対処することの重要性を強調します。
最上位のパフォーマンスを実現するために、前作でしばしば見落とされがちな、数ショットのインコンテキストの例を持つフロンティアLSM。
論文 参考訳(メタデータ) (2025-06-16T10:32:10Z) - REFINE-AF: A Task-Agnostic Framework to Align Language Models via Self-Generated Instructions using Reinforcement Learning from Automated Feedback [9.374858922055257]
大規模言語モデル (LLMs) は、多数の少数ショットまたはゼロショット自然言語処理 (NLP) タスクで有効であることが証明されている。
これまでの研究は、モデル自体から直接命令を生成することのできるフレームワークを提案することで、この問題に対処しようと試みてきた。
本稿では,セミオートマチックなフレームワークを用いて,オープンソースの3つのLLMの性能について検討する。
論文 参考訳(メタデータ) (2025-05-10T07:23:19Z) - Leveraging Online Olympiad-Level Math Problems for LLMs Training and Contamination-Resistant Evaluation [55.21013307734612]
AoPS-Instructは60,000以上の高品質QAペアのデータセットである。
LiveAoPSBenchは、最新のフォーラムデータから派生したタイムスタンプによる進化的評価セットである。
我々の研究は、高度な数学推論のための大規模で高品質なデータセットの作成と維持にスケーラブルなアプローチを提示している。
論文 参考訳(メタデータ) (2025-01-24T06:39:38Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - LLMaAA: Making Large Language Models as Active Annotators [32.57011151031332]
本稿では,大規模な言語モデルをアノテータとして利用し,それをアクティブな学習ループに配置して,アノテートを効率的に行うLLMaAAを提案する。
我々は、エンティティ認識と関係抽出という、2つの古典的NLPタスクの実験と分析を行う。
LLMaAAでは、LLM生成ラベルからトレーニングされたタスク固有のモデルが、数百の注釈付きサンプルで教師より優れている。
論文 参考訳(メタデータ) (2023-10-30T14:54:15Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - ReLLa: Retrieval-enhanced Large Language Models for Lifelong Sequential Behavior Comprehension in Recommendation [43.270424225285105]
ゼロショットと少数ショットのレコメンデーションタスクのために、純粋に大きな言語モデルを適応し、強化することに重点を置いています。
ゼロショット設定と少数ショット設定の両方でレコメンデーションタスクを行うRetrieval-enhanced Large Language Model (ReLLa)を提案する。
論文 参考訳(メタデータ) (2023-08-22T02:25:04Z) - Information Association for Language Model Updating by Mitigating
LM-Logical Discrepancy [68.31760483418901]
大規模言語モデル(LLM)は、時代遅れの事前学習データのために現在の情報を提供するのに苦労する。
知識編集や連続的な微調整など,従来のLCMの更新方法は,新たな情報の一般化に重大な欠点がある。
これらの欠点の中核となる課題は,言語モデリングの確率と論理的確率の差を特徴とするLM論理的相違である。
論文 参考訳(メタデータ) (2023-05-29T19:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。