論文の概要: LLMs Can Also Do Well! Breaking Barriers in Semantic Role Labeling via Large Language Models
- arxiv url: http://arxiv.org/abs/2506.05385v1
- Date: Tue, 03 Jun 2025 12:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.114055
- Title: LLMs Can Also Do Well! Breaking Barriers in Semantic Role Labeling via Large Language Models
- Title(参考訳): LLMもうまくいける! 大きな言語モデルによる意味的役割のラベル付けにおける障壁を破る
- Authors: Xinxin Li, Huiyao Chen, Chengjun Liu, Jing Li, Meishan Zhang, Jun Yu, Min Zhang,
- Abstract要約: ジェネレーティブデコーダベースの大規模言語モデル(LLM)は、様々なNLPタスクで顕著な成功を収めている。
しかし、彼らはセマンティックロールラベリング(SRL)における最先端エンコーダデコーダ(BERTライク)モデルに遅れを取っている。
本研究では, (a) 検索拡張生成と (b) 自己補正という2つのメカニズムで, SRL 用 LLM を組み込むことにより, このギャップを埋めることを模索する。
- 参考スコア(独自算出の注目度): 36.932790326116816
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic role labeling (SRL) is a crucial task of natural language processing (NLP). Although generative decoder-based large language models (LLMs) have achieved remarkable success across various NLP tasks, they still lag behind state-of-the-art encoder-decoder (BERT-like) models in SRL. In this work, we seek to bridge this gap by equipping LLMs for SRL with two mechanisms: (a) retrieval-augmented generation and (b) self-correction. The first mechanism enables LLMs to leverage external linguistic knowledge such as predicate and argument structure descriptions, while the second allows LLMs to identify and correct inconsistent SRL outputs. We conduct extensive experiments on three widely-used benchmarks of SRL (CPB1.0, CoNLL-2009, and CoNLL-2012). Results demonstrate that our method achieves state-of-the-art performance in both Chinese and English, marking the first successful application of LLMs to surpass encoder-decoder approaches in SRL.
- Abstract(参考訳): セマンティック・ロール・ラベリング(SRL)は自然言語処理(NLP)において重要な課題である。
生成デコーダベースの大規模言語モデル(LLM)は様々なNLPタスクで大きな成功を収めているが、SRLの最先端エンコーダ・デコーダ(BERT-like)モデルに遅れを取っている。
本研究では,SRL用LLMを2つのメカニズムで実装することで,このギャップを埋める。
(a)検索増強世代及び
(b)自己補正
第1のメカニズムにより、LLMは述語や引数構造の記述などの外部の言語知識を活用でき、第2のメカニズムでは、LLMは一貫性のないSRL出力を識別し、修正することができる。
SRL(CPB1.0, CoNLL-2009, CoNLL-2012)の広く使われている3つのベンチマークについて広範な実験を行った。
結果から,本手法は中国語と英語の両方で最先端性能を実現し,SRLにおけるエンコーダ・デコーダ手法を超越した最初のLLMの応用となった。
関連論文リスト
- Leveraging Large Language Models in Visual Speech Recognition: Model Scaling, Context-Aware Decoding, and Iterative Polishing [12.635121718700217]
視覚音声認識(VSR)は、唇の動きを分析して音声を転写する。
大きな言語モデル(LLM)はVSRシステムに統合され、顕著な性能改善につながった。
本稿では,VSRタスクにLLMを効果的に活用する方法を体系的に検討する。
論文 参考訳(メタデータ) (2025-05-27T21:00:12Z) - Toward Efficient Exploration by Large Language Model Agents [14.712532175418884]
大規模言語モデル(LLM)は、既存の強化学習アルゴリズムを明示的に実装するために使用することができる。
本稿では,LLMによるデータ効率のよいRLアルゴリズムの実装が,自然言語処理において極めて効果的であることを示す。
論文 参考訳(メタデータ) (2025-04-29T17:59:48Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - Self-Explained Keywords Empower Large Language Models for Code Generation [5.236633572296712]
大規模言語モデル(LLM)は、コード生成において素晴らしいパフォーマンスを達成した。
Sek(textbfSelf-textbfExplained textbfKeywords)は、LLM自体による問題記述における重要な用語を抽出し、説明する。
論文 参考訳(メタデータ) (2024-10-21T12:52:03Z) - Tokenization Matters! Degrading Large Language Models through Challenging Their Tokenization [12.418844515095035]
大規模言語モデル(LLM)は、特定のクエリに対する不正確な応答を生成する傾向がある。
不正確なトークン化は、LLMが入力を正確に理解するのを妨げている臨界点である。
我々は, LLMのトークン化に挑戦するために, 様々なオープンソースLLMの語彙をベースとして, $textbfADT (Adrial dataset for Tokenizer)$という逆データセットを構築した。
論文 参考訳(メタデータ) (2024-05-27T11:39:59Z) - Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL [78.80673954827773]
大きな言語モデル(LLM)は、言語理解を高め、解釈可能性を改善し、バイアスを減らすために構造化セマンティクスをキャプチャする上で重要な役割を果たす。
セマンティック・ロール・ラベルリング(SRL)を,構造化意味論を抽出するLLMの能力を探るための基本課題として用いることを提案する。
LLMは実際にセマンティック構造をキャプチャすることができ、スケールアップは常にポテンシャルを反映するわけではない。
エラーのかなりの重複は、LLMと訓練されていない人間の両方によって行われ、全てのエラーの約30%を占めることに私たちは驚いています。
論文 参考訳(メタデータ) (2024-05-10T11:44:05Z) - Cost-Performance Optimization for Processing Low-Resource Language Tasks Using Commercial LLMs [45.44796295841526]
大規模言語モデル(LLM)は、高リソース言語(HRL)に対する印象的なゼロ/ファウショット推論と生成品質を示す。
いくつかは低リソース言語(LRL)でトレーニングされ、優れたパフォーマンスを実現しています。
LLM は HRL よりも LRL よりも多くのトークンを生成するため,LRL が価格面で不利であることを示す。
論文 参考訳(メタデータ) (2024-03-08T16:37:36Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - Self-Augmented In-Context Learning for Unsupervised Word Translation [23.495503962839337]
大規模言語モデル (LLMs) は、強力な単語翻訳やバイリンガル語彙誘導(BLI)機能を示す。
教師なしBLIのための自己拡張型インコンテキスト学習(SAIL)を提案する。
提案手法は,2つの確立したBLIベンチマーク上でのLDMのゼロショットプロンプトよりも大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-02-15T15:43:05Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - Transition-based Semantic Role Labeling with Pointer Networks [0.40611352512781856]
本稿では,1つの左から右へのパスで入力文を完全に処理できる,トランジッションベースのSRLアプローチを提案する。
Pointer Networksをベースとした実装のおかげで、完全なSRLは$O(n2)$で正確かつ効率的に実行できる。
論文 参考訳(メタデータ) (2022-05-20T08:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。