論文の概要: LTG at SemEval-2025 Task 10: Optimizing Context for Classification of Narrative Roles
- arxiv url: http://arxiv.org/abs/2506.05976v1
- Date: Fri, 06 Jun 2025 10:58:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.437638
- Title: LTG at SemEval-2025 Task 10: Optimizing Context for Classification of Narrative Roles
- Title(参考訳): LTG at SemEval-2025 Task 10:Optimizing Context for Classification of Narrative Roles
- Authors: Egil Rønningstad, Gaurav Negi,
- Abstract要約: コンテキスト選択のための単純なエンティティ指向アプローチにより、限られたコンテキストウィンドウを持つモデルを用いたテキスト分類が可能となることを示す。
我々の文脈選択アプローチとXLM-RoBERTa言語モデルは、より大きな生成言語モデルでスーパービジョンファインチューニング(Supervised Fine-Tuning, Supervised Fine-Tuning, Supervised Language Model)に匹敵する、あるいは優れています。
- 参考スコア(独自算出の注目度): 0.3069335774032178
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Our contribution to the SemEval 2025 shared task 10, subtask 1 on entity framing, tackles the challenge of providing the necessary segments from longer documents as context for classification with a masked language model. We show that a simple entity-oriented heuristics for context selection can enable text classification using models with limited context window. Our context selection approach and the XLM-RoBERTa language model is on par with, or outperforms, Supervised Fine-Tuning with larger generative language models.
- Abstract(参考訳): SemEval 2025共有タスク10のサブタスク1へのコントリビューションは、より長いドキュメントから必要なセグメントをマスク付き言語モデルで分類するためのコンテキストとして提供するという課題に対処する。
コンテキスト選択のための単純なエンティティ指向ヒューリスティックは、限られたコンテキストウィンドウを持つモデルを用いてテキスト分類を可能にする。
我々の文脈選択アプローチとXLM-RoBERTa言語モデルは、より大きな生成言語モデルでスーパービジョンファインチューニング(Supervised Fine-Tuning, Supervised Fine-Tuning, Supervised Language Model)に匹敵する、あるいは優れています。
関連論文リスト
- Cross-Domain Semantic Segmentation with Large Language Model-Assisted Descriptor Generation [0.0]
LangSegはコンテキストに敏感できめ細かいサブクラス記述子を利用する新しいセマンティックセマンティックセマンティクス手法である。
我々はLangSegをADE20KとCOCO-Stuffという2つの挑戦的なデータセットで評価し、最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2025-01-27T20:02:12Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - From Text Segmentation to Smart Chaptering: A Novel Benchmark for
Structuring Video Transcriptions [63.11097464396147]
音声コンテンツに焦点をあてた新しいベンチマークYTSegを導入し、その内容は本質的に非構造的であり、トポロジと構造的にも多様である。
また,高効率な階層分割モデルMiniSegを導入する。
論文 参考訳(メタデータ) (2024-02-27T15:59:37Z) - Exploiting Contextual Target Attributes for Target Sentiment
Classification [53.30511968323911]
TSCの既存のPTLMベースモデルは、1)PTLMをコンテキストエンコーダとして採用した微調整ベースモデル、2)テキスト/単語生成タスクに分類タスクを転送するプロンプトベースモデル、の2つのグループに分類される。
我々は,PTLM を TSC に活用する新たな視点として,言語モデリングと文脈的ターゲット属性による明示的ターゲットコンテキスト相互作用の利点を同時に活用する。
論文 参考訳(メタデータ) (2023-12-21T11:45:28Z) - To token or not to token: A Comparative Study of Text Representations
for Cross-Lingual Transfer [23.777874316083984]
ゼロショットと少数ショットの両方の評価を重み付けして表現できるスコアリング言語クオシアン計量を提案する。
解析の結果,言語が密接に関連し,視覚的に類似したスクリプトを共有する場合,画像ベースモデルは言語間移動に優れることがわかった。
単語関係が重要な役割を果たす依存性解析タスクでは、キャラクタレベルに焦点を当てたモデルが他よりも優れています。
論文 参考訳(メタデータ) (2023-10-12T06:59:10Z) - Large Language Model Prompt Chaining for Long Legal Document
Classification [2.3148470932285665]
チェイン(Chaining)は、複雑なタスクを小さな管理可能なコンポーネントに分解する戦略である。
即時連鎖により、ゼロショット以上の性能を向上できるだけでなく、より大きなモデルによって達成されたマイクロF1スコアを超越できることを実証する。
論文 参考訳(メタデータ) (2023-08-08T08:57:01Z) - BLCU-ICALL at SemEval-2022 Task 1: Cross-Attention Multitasking
Framework for Definition Modeling [16.794041736487323]
本稿では,SemEval-2022 Task 1で使用されるBLCU-ICALLシステムについて述べる。
タスクを探索するトランスフォーマーベースのマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T02:33:28Z) - Retrieve-and-Fill for Scenario-based Task-Oriented Semantic Parsing [110.4684789199555]
シナリオベースのセマンティックパーシングを導入し、最初に発話の「scenario」を曖昧にする必要がある元のタスクの変種を紹介します。
この定式化により、タスクの粗くきめ細かな側面を分離することが可能となり、それぞれがオフザシェルフニューラルネットワークモジュールで解決される。
私たちのモデルはモジュール化され、差別化可能で、解釈可能で、シナリオから余分な監督を得られるようになります。
論文 参考訳(メタデータ) (2022-02-02T08:00:21Z) - GRIT: Generative Role-filler Transformers for Document-level Event
Entity Extraction [134.5580003327839]
本稿では、文書レベルでコンテキストをモデル化するための生成トランスフォーマーベースのエンコーダデコーダフレームワーク(GRIT)を紹介する。
我々は,MUC-4データセットに対する我々のアプローチを評価し,我々のモデルが先行作業よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-08-21T01:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。