論文の概要: Event Detection with a Context-Aware Encoder and LoRA for Improved Performance on Long-Tailed Classes
- arxiv url: http://arxiv.org/abs/2601.11932v1
- Date: Sat, 17 Jan 2026 06:40:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.385066
- Title: Event Detection with a Context-Aware Encoder and LoRA for Improved Performance on Long-Tailed Classes
- Title(参考訳): コンテキスト対応エンコーダとLoRAを用いたイベント検出による長期学習における性能向上
- Authors: Abdullah Al Monsur, Nitesh Vamshi Bommisetty, Gene Louis Kim,
- Abstract要約: リッチで双方向なコンテキストに依存する自然言語理解タスクのアーキテクチャボトルネックについて検討する。
Macro-F1は、イベントタイプの長い範囲にわたるモデルの能力のより代表的な尺度です。
微調整中にローランド適応(LoRA)を使用すると、特にマクロF1スコアが大幅に向上する。
- 参考スコア(独自算出の注目度): 5.703174155660825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The current state of event detection research has two notable re-occurring limitations that we investigate in this study. First, the unidirectional nature of decoder-only LLMs presents a fundamental architectural bottleneck for natural language understanding tasks that depend on rich, bidirectional context. Second, we confront the conventional reliance on Micro-F1 scores in event detection literature, which systematically inflates performance by favoring majority classes. Instead, we focus on Macro-F1 as a more representative measure of a model's ability across the long-tail of event types. Our experiments demonstrate that models enhanced with sentence context achieve superior performance over canonical decoder-only baselines. Using Low-Rank Adaptation (LoRA) during finetuning provides a substantial boost in Macro-F1 scores in particular, especially for the decoder-only models, showing that LoRA can be an effective tool to enhance LLMs' performance on long-tailed event classes.
- Abstract(参考訳): イベント検出研究の現状には,本研究で確認した2つの重要な再帰的限界がある。
第一に、デコーダのみのLLMの一方的な性質は、リッチで双方向なコンテキストに依存する自然言語理解タスクにおいて、基本的なアーキテクチャ上のボトルネックをもたらす。
第2に、イベント検出文献における従来のマイクロF1スコアへの依存に直面する。
代わりに、イベントタイプの長い範囲にわたるモデルの能力のより代表的な尺度として、Macro-F1に注目します。
実験により、文文脈で拡張されたモデルは、標準デコーダのみのベースラインよりも優れた性能が得られることを示した。
微調整中にLoRA(Lo-Rank Adaptation)を使用すると、特にデコーダのみのモデルではマクロF1スコアが大幅に向上する。
関連論文リスト
- Language Ranker: A Lightweight Ranking framework for LLM Decoding [70.01564145836129]
本稿では,レコメンデーションパイプラインのランク付け段階に類似した復号過程を概念化する。
この知見に触発されて、我々はLanguage Rankerを提案する。
実験の結果、Language Rankerは大規模報酬モデルに匹敵するパフォーマンスを達成する一方で、0.5Mの追加パラメータしか必要としないことがわかった。
論文 参考訳(メタデータ) (2025-10-23T17:56:46Z) - L1RA: Dynamic Rank Assignment in LoRA Fine-Tuning [0.09799637101641147]
L1RAは,LoRAを用いた微調整において,低ランクアダプタのランクを動的に分散する手法である。
実験により,L1RAは,他のLoRAの変種と比較して,計算オーバーヘッドが同等あるいは少なく抑えられていることを実証した。
論文 参考訳(メタデータ) (2025-09-05T08:03:01Z) - GDLLM: A Global Distance-aware Modeling Approach Based on Large Language Models for Event Temporal Relation Extraction [4.6155886966345285]
大規模言語モデルに基づくグローバル距離対応モデリング手法を提案する。
まず,グラフ注意ネットワーク(GAT)を用いた距離対応グラフ構造を用いて,LLMの長距離依存性特性の把握を支援する。
我々は,短距離近接帯域との相関関係の同定を強化するために,ソフト推論に基づく時間的特徴学習パラダイムを設計する。
論文 参考訳(メタデータ) (2025-08-28T14:23:39Z) - SeFAR: Semi-supervised Fine-grained Action Recognition with Temporal Perturbation and Learning Stabilization [2.1682783789464968]
きめ細かいアクション認識(FAR)は、短い時間内に詳細なセマンティックラベルに焦点を当てる。
ラベルのアノテートコストと微調整 LLM に必要なデータ量を考えると,半教師付き学習(SSL)の導入を提案する。
当社のフレームワークであるSeFARには,これらの課題に対処するための革新的な設計がいくつか含まれています。
論文 参考訳(メタデータ) (2025-01-02T13:12:12Z) - Unlocking Tuning-Free Few-Shot Adaptability in Visual Foundation Models by Recycling Pre-Tuned LoRAs [76.40876036912537]
大規模言語モデル(LLM)は、微調整を必要とせず、強力な少数ショット適応性を示す。
現在のVisual Foundation Models (VFM) は十分なチューニングデータを持つ明示的な微調整を必要とする。
そこで我々は, メタ学習目的の多様なLoRAからメタLoRAを蒸留するフレームワークであるLoRA Recycleを提案する。
論文 参考訳(メタデータ) (2024-12-03T07:25:30Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - RAR: Retrieving And Ranking Augmented MLLMs for Visual Recognition [78.97487780589574]
MLLM(Multimodal Large Language Models)は、細粒度カテゴリの分類において優れている。
本稿では,MLLMの検索とランク付けのための拡張手法を提案する。
提案手法は, 微粒化認識における固有の限界に対処するだけでなく, モデルの包括的知識基盤も維持する。
論文 参考訳(メタデータ) (2024-03-20T17:59:55Z) - EventRL: Enhancing Event Extraction with Outcome Supervision for Large
Language Models [48.136950450053476]
EventRLは、大規模言語モデル(LLM)のイベント抽出を強化するために開発された強化学習手法である。
FSP(Few-Shot Prompting)やSFT(Supervised Fine-Tuning)といった既存手法に対するEventRLの評価を行った。
以上の結果から,EventRLはイベントの識別・構造化性能を向上させることにより,従来の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-18T02:41:06Z) - MA-FSAR: Multimodal Adaptation of CLIP for Few-Shot Action Recognition [41.78245303513613]
我々は,行動に関連する時間的および意味的表現の観点からCLIP視覚エンコーダを強化するために,Fine-Tuning(PEFT)技術を利用するフレームワークであるMA-FSARを紹介する。
これらのトークンレベルの設計に加えて,ビデオプロトタイプの時間的・意味的特性をさらに強化するプロトタイプレベルのテキストガイド構築モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-03T04:17:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。