論文の概要: LoRA-MME: Multi-Model Ensemble of LoRA-Tuned Encoders for Code Comment Classification
- arxiv url: http://arxiv.org/abs/2603.03959v2
- Date: Thu, 05 Mar 2026 18:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 15:25:24.372116
- Title: LoRA-MME: Multi-Model Ensemble of LoRA-Tuned Encoders for Code Comment Classification
- Title(参考訳): LoRA-MME:コードコメント分類のためのLoRA-Tuned Encodersのマルチモデルアンサンブル
- Authors: Md Akib Haider, Ahsan Bulbul, Nafis Fuad Shahid, Aimaan Ahmed, Mohammad Ishrak Abedin,
- Abstract要約: マルチラベル分類のためのマルチモデルアンサンブルアーキテクチャであるLoRA-MMEを提案する。
このアプローチは、Java、Python、Pharo間のマルチラベル分類の問題に対処します。
テストセットのF1重みスコアは0.7906、マクロF1は0.6867であった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Code comment classification is a critical task for automated software documentation and analysis. In the context of the NLBSE'26 Tool Competition, we present LoRA-MME, a Multi-Model Ensemble architecture utilizing Parameter-Efficient Fine-Tuning (PEFT). Our approach addresses the multi-label classification challenge across Java, Python, and Pharo by combining the strengths of four distinct transformer encoders: UniXcoder, CodeBERT, GraphCodeBERT, and CodeBERTa. By independently fine-tuning these models using Low-Rank Adaptation(LoRA) and aggregating their predictions via a learned weighted ensemble strategy, we maximize classification performance without the memory overhead of full model fine-tuning. Our tool achieved an F1 Weighted score of 0.7906 and a Macro F1 of 0.6867 on the test set. However, the computational cost of the ensemble resulted in a final submission score of 41.20%, highlighting the trade-off between semantic accuracy and inference efficiency.
- Abstract(参考訳): コードコメントの分類は、自動化されたソフトウェアドキュメンテーションと分析にとって重要なタスクである。
NLBSE'26ツールコンペティションにおいて,パラメータ効率の良いファインチューニング(PEFT)を利用したマルチモデルアンサンブルアーキテクチャであるLoRA-MMEを提案する。
提案手法は,UniXcoder,CodeBERT,GraphCodeBERT,CodeBERTaの4つのトランスフォーマーエンコーダの長所を組み合わせることで,Java,Python,Pharo間のマルチラベル分類問題に対処する。
低ランク適応(LoRA)を用いてこれらのモデルを独立に微調整し、学習した重み付けアンサンブル戦略によりそれらの予測を集約することにより、フルモデル微調整のメモリオーバーヘッドを伴わずに分類性能を最大化する。
テストセットのF1重みスコアは0.7906、マクロF1は0.6867であった。
しかし、アンサンブルの計算コストは41.20%となり、意味的精度と推論効率のトレードオフを強調した。
関連論文リスト
- Cost-Aware Model Selection for Text Classification: Multi-Objective Trade-offs Between Fine-Tuned Encoders and LLM Prompting in Production [0.0]
大規模言語モデル(LLM)は、オープンエンド推論や生成言語タスクにおいて強力な機能を示している。
固定ラベル空間を用いた構造化テキスト分類問題に対して、モデル選択は予測性能のみによって駆動されることが多い。
BERTファミリーの細調整エンコーダを用いたモデルでは、競争力があり、しばしば優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2026-02-06T03:54:28Z) - Confidence-Credibility Aware Weighted Ensembles of Small LLMs Outperform Large LLMs in Emotion Detection [0.2864713389096699]
本稿では,テキストによる感情検出のための信頼度に配慮したアンサンブルフレームワークを提案する。
提案手法は,アーキテクチャ的に多種多様な小型トランスフォーマーベース大規模言語モデル (sLLM) - BERT, RoBERTa, DistilBERT, DeBERTa, ELECTRA を組み合わせたものである。
DAIR-AIデータセットの実験により、我々の信頼度信頼度アンサンブルはマクロF1スコアが93.5パーセントに達することが示された。
論文 参考訳(メタデータ) (2025-12-19T14:33:14Z) - Chart2Code-MoLA: Efficient Multi-Modal Code Generation via Adaptive Expert Routing [20.521717930460692]
C2C-MoLAは、Low-Rank Adaptation (LoRA)とMixture of Experts (MoE)を相乗化するフレームワークである
LoRAは、リソースを意識したチューニングのためのパラメータ効率の更新を可能にする。
Chart2Code-160kの実験では、提案されたモデルにより生成精度が最大17%向上した。
論文 参考訳(メタデータ) (2025-11-28T16:23:04Z) - Every Step Counts: Decoding Trajectories as Authorship Fingerprints of dLLMs [63.82840470917859]
本稿では,dLLMの復号化機構をモデル属性の強力なツールとして利用できることを示す。
本稿では、デコードステップ間の構造的関係を捉え、モデル固有の振る舞いをよりよく明らかにする、DDM(Directed Decoding Map)と呼ばれる新しい情報抽出手法を提案する。
論文 参考訳(メタデータ) (2025-10-02T06:25:10Z) - Datarus-R1: An Adaptive Multi-Step Reasoning LLM for Automated Data Analysis [0.0]
本稿では,Qwen 2.5-14B-Instructの言語モデルであるDatarus-R1-14Bを提案する。
Datarusは、独立した問合せペアではなく、推論ステップ、コード実行、エラートレース、自己補正、最終的な結論を含む完全な分析トラジェクトリに基づいて訓練されている。
論文 参考訳(メタデータ) (2025-08-18T21:58:18Z) - Learning to Select MCP Algorithms: From Traditional ML to Dual-Channel GAT-MLP [8.6217237605907]
単一の最大傾きアルゴリズムは、全てのインスタンスで常に最善を尽くす。
従来の機械学習とグラフニューラルネットワークを統合した学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-11T14:09:58Z) - University of Indonesia at SemEval-2025 Task 11: Evaluating State-of-the-Art Encoders for Multi-Label Emotion Detection [1.2564343689544841]
本稿では,28言語にまたがるマルチラベル感情分類に焦点を当てた。
完全微調整変圧器モデルと分類器のみのトレーニングの2つの主要な戦略について検討する。
以上の結果から,mE5やBGEなどのプロンプトベースエンコーダ上での分類器の訓練は,完全微調整XLMRやmBERTよりも有意に優れた結果が得られることが示唆された。
論文 参考訳(メタデータ) (2025-05-22T09:42:11Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - MatFormer: Nested Transformer for Elastic Inference [91.45687988953435]
MatFormerは、多様なデプロイメント制約にまたがる弾性推論を提供するように設計された、新しいTransformerアーキテクチャである。
MatFormerは、標準的なTransformerモデルにネストフィードフォワードネットワーク(FFN)ブロック構造を組み込むことで、これを実現している。
8億5000万デコーダのみのMatFormer言語モデル(MatLM)により,5億2200万から8億5千万のパラメータにまたがる複数の小さなモデルを抽出できることを示す。
論文 参考訳(メタデータ) (2023-10-11T17:57:14Z) - Filter Pruning for Efficient CNNs via Knowledge-driven Differential
Filter Sampler [103.97487121678276]
フィルタプルーニングは同時に計算を加速し、CNNのメモリオーバーヘッドを低減する。
本稿では,MFM(Masked Filter Modeling)フレームワークを用いた知識駆動型微分フィルタサンプリング(KDFS)を提案する。
論文 参考訳(メタデータ) (2023-07-01T02:28:41Z) - Mixture Model Auto-Encoders: Deep Clustering through Dictionary Learning [72.9458277424712]
Mixture Model Auto-Encoders (MixMate)は、生成モデルで推論を実行することでデータをクラスタリングする新しいアーキテクチャである。
最先端のディープクラスタリングアルゴリズムと比較して,MixMateは競争性能が高いことを示す。
論文 参考訳(メタデータ) (2021-10-10T02:30:31Z) - Pack Together: Entity and Relation Extraction with Levitated Marker [61.232174424421025]
エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-13T15:38:13Z) - Gestalt: a Stacking Ensemble for SQuAD2.0 [0.0]
本稿では,文脈文中の質問に対する正しい回答を見つけ出し,提示する深層学習システムを提案する。
我々のゴールは、各アンサンブルで最高のモデルを上回る異種SQuAD2.0モデルのアンサンブルを学習することである。
論文 参考訳(メタデータ) (2020-04-02T08:09:22Z) - AutoFIS: Automatic Feature Interaction Selection in Factorization Models
for Click-Through Rate Prediction [75.16836697734995]
自動特徴相互作用選択(AutoFIS)と呼ばれる2段階のアルゴリズムを提案する。
AutoFISは、目標モデルを収束させるためにトレーニングするのと同等の計算コストで、因子化モデルに対する重要な特徴的相互作用を自動的に識別することができる。
AutoFISはHuawei App Storeレコメンデーションサービスのトレーニングプラットフォームにデプロイされている。
論文 参考訳(メタデータ) (2020-03-25T06:53:54Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。