論文の概要: TriagerX: Dual Transformers for Bug Triaging Tasks with Content and Interaction Based Rankings
- arxiv url: http://arxiv.org/abs/2508.16860v1
- Date: Sat, 23 Aug 2025 01:10:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.219228
- Title: TriagerX: Dual Transformers for Bug Triaging Tasks with Content and Interaction Based Rankings
- Title(参考訳): TriagerX: コンテンツとインタラクションベースのランキングを備えたバグトリアージタスクのためのデュアルトランスフォーマー
- Authors: Md Afif Al Mamun, Gias Uddin, Lan Xia, Longyu Zhang,
- Abstract要約: 事前訓練された言語モデル(PLM)は、バグトリアージタスクで使用できるトランスフォーマーベースのアーキテクチャである。
PLMは、統計機能に依存する従来の機械学習(ML)モデルよりも、トークンセマンティクスをキャプチャできる。
TriagerXはトークンのセマンティクスをより確実に評価するためにデュアルトランスフォーマーアーキテクチャを使用している。
SOTAベースラインを含む9つのトランスフォーマーベースのメソッドをすべて越え、Top-1とTop-3の推奨精度を10%以上向上させる。
- 参考スコア(独自算出の注目度): 2.846561253333858
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretrained Language Models or PLMs are transformer-based architectures that can be used in bug triaging tasks. PLMs can better capture token semantics than traditional Machine Learning (ML) models that rely on statistical features (e.g., TF-IDF, bag of words). However, PLMs may still attend to less relevant tokens in a bug report, which can impact their effectiveness. In addition, the model can be sub-optimal with its recommendations when the interaction history of developers around similar bugs is not taken into account. We designed TriagerX to address these limitations. First, to assess token semantics more reliably, we leverage a dual-transformer architecture. Unlike current state-of-the-art (SOTA) baselines that employ a single transformer architecture, TriagerX collects recommendations from two transformers with each offering recommendations via its last three layers. This setup generates a robust content-based ranking of candidate developers. TriagerX then refines this ranking by employing a novel interaction-based ranking methodology, which considers developers' historical interactions with similar fixed bugs. Across five datasets, TriagerX surpasses all nine transformer-based methods, including SOTA baselines, often improving Top-1 and Top-3 developer recommendation accuracy by over 10%. We worked with our large industry partner to successfully deploy TriagerX in their development environment. The partner required both developer and component recommendations, with components acting as proxies for team assignments-particularly useful in cases of developer turnover or team changes. We trained TriagerX on the partner's dataset for both tasks, and it outperformed SOTA baselines by up to 10% for component recommendations and 54% for developer recommendations.
- Abstract(参考訳): 事前訓練された言語モデル(PLM)は、バグトリアージタスクで使用できるトランスフォーマーベースのアーキテクチャである。
PLMは、統計的特徴(TF-IDF、単語の袋など)に依存する従来の機械学習(ML)モデルよりも、トークンセマンティクスをよりよくキャプチャできる。
しかしながら、PLMはバグレポートにおいて関連性の低いトークンに引き続き参加する可能性があるため、その効果に影響を及ぼす可能性がある。
さらに、同様のバグに関する開発者のインタラクション履歴が考慮されていない場合、モデルが推奨する部分最適化が可能である。
これらの制限に対処するために、TriagerXを設計しました。
まず、トークンのセマンティクスをより確実に評価するために、デュアルトランスフォーマーアーキテクチャを利用する。
単一のトランスフォーマーアーキテクチャを使用する現在の最先端(SOTA)ベースラインとは異なり、TriagerXは2つのトランスフォーマーからレコメンデーションを収集し、それぞれが最後の3つのレイヤを通じてレコメンデーションを提供する。
この設定は、候補開発者の堅牢なコンテンツベースのランキングを生成する。
TriagerXはこのランク付けを、開発者が同様のバグと過去のインタラクションを考慮に入れた、新しいインタラクションベースのランク付け手法を用いて改善する。
5つのデータセットで、TriagerXはSOTAベースラインを含む9つのトランスフォーマーベースのメソッドをすべて上回り、Top-1とTop-3開発者の推奨精度を10%以上改善する。
私たちは大企業のパートナと協力して,TriagerXを開発環境にデプロイすることに成功しました。
パートナは開発者とコンポーネントのレコメンデーションを必要とし、コンポーネントはチームの割り当てのプロキシとして機能します。
両方のタスクのデータセットでTriagerXをトレーニングし、コンポーネントレコメンデーションでは最大10%、開発者レコメンデーションでは54%のSOTAベースラインを上回りました。
関連論文リスト
- A Framework for Generating Conversational Recommendation Datasets from Behavioral Interactions [2.0693204407592836]
ConvRecStudioは、リアルタイムなマルチターンダイアログをシミュレートするフレームワークで、タイムスタンプによるユーザとイテムのインタラクションとレビューに基礎を置いている。
我々は、MobileRec、Yelp、Amazon Electronicsの3つのドメインにConvRecStudioを適用する。
論文 参考訳(メタデータ) (2025-06-14T22:58:48Z) - SwingArena: Competitive Programming Arena for Long-context GitHub Issue Solving [90.32201622392137]
We present SwingArena, a competitive evaluation framework for Large Language Models (LLMs)。
従来の静的ベンチマークとは異なり、SwingArenaはLLMをイテレーションとして組み合わせて、テストケースを作成し、継続的インテグレーション(CI)パイプラインを通じてパッチを検証するパッチとレビュアーを生成することで、ソフトウェアのコラボレーションプロセスをモデル化する。
論文 参考訳(メタデータ) (2025-05-29T18:28:02Z) - Unsupervised Feature Transformation via In-context Generation, Generator-critic LLM Agents, and Duet-play Teaming [37.06543502352577]
本稿では,特徴空間を効率的にかつ監督なく変換するための,ジェネレータクリティカルなデュエットプレイ協調フレームワークを提案する。
本フレームワークは,(1)批判的エージェントがデータを診断して行動可能なアドバイスを生成する,(2)ジェネレータが批評家のアドバイスによって導かれるトークン化された特徴変換を生成する,(3)反復的改善によってエージェント間のフィードバックを通じて継続的な改善が保証される,という3つの段階から構成される。
大規模な実験により、提案されたフレームワークは、さまざまなデータセットにまたがる機能変換効率、堅牢性、実用的な適用性において、教師付きベースラインよりも優れています。
論文 参考訳(メタデータ) (2025-04-30T04:26:03Z) - Mining Software Repositories for Expert Recommendation [3.481985817302898]
我々は,大規模なオープンソースソフトウェアプロジェクトの開発者に対して,バグ割り当ての自動化アプローチを提案する。
このようにして、我々は、新しく報告された問題に割り当てられる特定の分野において、適切なレベルの専門知識を持つ最高の開発者を見つける責任を持つ、人間のバグトリアージを支援します。
論文 参考訳(メタデータ) (2025-04-23T01:41:08Z) - Sentiment Analysis in Software Engineering: Evaluating Generative Pre-trained Transformers [0.0]
本研究は,SE感情分析において, BERT などの双方向トランスフォーマー, 特に GPT-4o-mini に対する性能を系統的に評価する。
その結果、微調整のGPT-4o-miniは、GitHubやJiraのような構造化およびバランスの取れたデータセット上でBERTや他の双方向モデルに匹敵するパフォーマンスを示した。
Stack Overflowのような不均衡な感情分布を持つ言語的に複雑なデータセットでは、デフォルトのGPT-4o-miniモデルはより優れた一般化を示し、微調整モデルの13.1%と比べて85.3%の精度を実現している。
論文 参考訳(メタデータ) (2025-04-22T14:19:25Z) - SOEN-101: Code Generation by Emulating Software Process Models Using Large Language Model Agents [50.82665351100067]
FlowGenは、複数のLarge Language Model (LLM)エージェントに基づいたソフトウェアプロセスモデルをエミュレートするコード生成フレームワークである。
FlowGenScrumをHumanEval、HumanEval-ET、MBPP、MBPP-ETの4つのベンチマークで評価した。
論文 参考訳(メタデータ) (2024-03-23T14:04:48Z) - Meta-Transformer: A Unified Framework for Multimodal Learning [105.77219833997962]
マルチモーダル学習は、複数のモーダルからの情報を処理し、関連付けるモデルを構築することを目的としている。
この分野での長年の開発にもかかわらず、様々なモダリティを処理する統一ネットワークを設計することは依然として困難である。
我々は、textbffrozen$ encoderを利用してマルチモーダル認識を行うMeta-Transformerというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-20T12:10:29Z) - Improving language models by retrieving from trillions of tokens [50.42630445476544]
大規模コーパスから取得した文書チャンクを条件付けすることで,自動回帰言語モデルを強化する。
2兆ドルのトークンデータベースで、Retrieval-Enhanced Transformer (RETRO)は、PileのGPT-3とJurassic-1に匹敵するパフォーマンスを得る。
論文 参考訳(メタデータ) (2021-12-08T17:32:34Z) - Pack Together: Entity and Relation Extraction with Levitated Marker [61.232174424421025]
エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-13T15:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。