論文の概要: LLMs Can Also Do Well! Breaking Barriers in Semantic Role Labeling via Large Language Models
- arxiv url: http://arxiv.org/abs/2506.05385v1
- Date: Tue, 03 Jun 2025 12:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.114055
- Title: LLMs Can Also Do Well! Breaking Barriers in Semantic Role Labeling via Large Language Models
- Title(参考訳): LLMもうまくいける! 大きな言語モデルによる意味的役割のラベル付けにおける障壁を破る
- Authors: Xinxin Li, Huiyao Chen, Chengjun Liu, Jing Li, Meishan Zhang, Jun Yu, Min Zhang,
- Abstract要約: ジェネレーティブデコーダベースの大規模言語モデル(LLM)は、様々なNLPタスクで顕著な成功を収めている。
しかし、彼らはセマンティックロールラベリング(SRL)における最先端エンコーダデコーダ(BERTライク)モデルに遅れを取っている。
本研究では, (a) 検索拡張生成と (b) 自己補正という2つのメカニズムで, SRL 用 LLM を組み込むことにより, このギャップを埋めることを模索する。
- 参考スコア(独自算出の注目度): 36.932790326116816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic role labeling (SRL) is a crucial task of natural language processing (NLP). Although generative decoder-based large language models (LLMs) have achieved remarkable success across various NLP tasks, they still lag behind state-of-the-art encoder-decoder (BERT-like) models in SRL. In this work, we seek to bridge this gap by equipping LLMs for SRL with two mechanisms: (a) retrieval-augmented generation and (b) self-correction. The first mechanism enables LLMs to leverage external linguistic knowledge such as predicate and argument structure descriptions, while the second allows LLMs to identify and correct inconsistent SRL outputs. We conduct extensive experiments on three widely-used benchmarks of SRL (CPB1.0, CoNLL-2009, and CoNLL-2012). Results demonstrate that our method achieves state-of-the-art performance in both Chinese and English, marking the first successful application of LLMs to surpass encoder-decoder approaches in SRL.
- Abstract(参考訳): セマンティック・ロール・ラベリング(SRL)は自然言語処理(NLP)において重要な課題である。
生成デコーダベースの大規模言語モデル(LLM)は様々なNLPタスクで大きな成功を収めているが、SRLの最先端エンコーダ・デコーダ(BERT-like)モデルに遅れを取っている。
本研究では,SRL用LLMを2つのメカニズムで実装することで,このギャップを埋める。
(a)検索増強世代及び
(b)自己補正
第1のメカニズムにより、LLMは述語や引数構造の記述などの外部の言語知識を活用でき、第2のメカニズムでは、LLMは一貫性のないSRL出力を識別し、修正することができる。
SRL(CPB1.0, CoNLL-2009, CoNLL-2012)の広く使われている3つのベンチマークについて広範な実験を行った。
結果から,本手法は中国語と英語の両方で最先端性能を実現し,SRLにおけるエンコーダ・デコーダ手法を超越した最初のLLMの応用となった。
関連論文リスト
- Leveraging Large Language Models in Visual Speech Recognition: Model Scaling, Context-Aware Decoding, and Iterative Polishing [12.635121718700217]
視覚音声認識(VSR)は、唇の動きを分析して音声を転写する。
大きな言語モデル(LLM)はVSRシステムに統合され、顕著な性能改善につながった。
本稿では,VSRタスクにLLMを効果的に活用する方法を体系的に検討する。
論文 参考訳(メタデータ) (2025-05-27T21:00:12Z) - Toward Efficient Exploration by Large Language Model Agents [14.712532175418884]
大規模言語モデル(LLM)は、既存の強化学習アルゴリズムを明示的に実装するために使用することができる。
本稿では,LLMによるデータ効率のよいRLアルゴリズムの実装が,自然言語処理において極めて効果的であることを示す。
論文 参考訳(メタデータ) (2025-04-29T17:59:48Z) - Tokenization Matters! Degrading Large Language Models through Challenging Their Tokenization [12.418844515095035]
大規模言語モデル(LLM)は、特定のクエリに対する不正確な応答を生成する傾向がある。
不正確なトークン化は、LLMが入力を正確に理解するのを妨げている臨界点である。
我々は, LLMのトークン化に挑戦するために, 様々なオープンソースLLMの語彙をベースとして, $textbfADT (Adrial dataset for Tokenizer)$という逆データセットを構築した。
論文 参考訳(メタデータ) (2024-05-27T11:39:59Z) - Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL [78.80673954827773]
大きな言語モデル(LLM)は、言語理解を高め、解釈可能性を改善し、バイアスを減らすために構造化セマンティクスをキャプチャする上で重要な役割を果たす。
セマンティック・ロール・ラベルリング(SRL)を,構造化意味論を抽出するLLMの能力を探るための基本課題として用いることを提案する。
LLMは実際にセマンティック構造をキャプチャすることができ、スケールアップは常にポテンシャルを反映するわけではない。
エラーのかなりの重複は、LLMと訓練されていない人間の両方によって行われ、全てのエラーの約30%を占めることに私たちは驚いています。
論文 参考訳(メタデータ) (2024-05-10T11:44:05Z) - Cost-Performance Optimization for Processing Low-Resource Language Tasks Using Commercial LLMs [45.44796295841526]
大規模言語モデル(LLM)は、高リソース言語(HRL)に対する印象的なゼロ/ファウショット推論と生成品質を示す。
いくつかは低リソース言語(LRL)でトレーニングされ、優れたパフォーマンスを実現しています。
LLM は HRL よりも LRL よりも多くのトークンを生成するため,LRL が価格面で不利であることを示す。
論文 参考訳(メタデータ) (2024-03-08T16:37:36Z) - Self-Augmented In-Context Learning for Unsupervised Word Translation [23.495503962839337]
大規模言語モデル (LLMs) は、強力な単語翻訳やバイリンガル語彙誘導(BLI)機能を示す。
教師なしBLIのための自己拡張型インコンテキスト学習(SAIL)を提案する。
提案手法は,2つの確立したBLIベンチマーク上でのLDMのゼロショットプロンプトよりも大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-02-15T15:43:05Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Transition-based Semantic Role Labeling with Pointer Networks [0.40611352512781856]
本稿では,1つの左から右へのパスで入力文を完全に処理できる,トランジッションベースのSRLアプローチを提案する。
Pointer Networksをベースとした実装のおかげで、完全なSRLは$O(n2)$で正確かつ効率的に実行できる。
論文 参考訳(メタデータ) (2022-05-20T08:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。