論文の概要: EventRL: Enhancing Event Extraction with Outcome Supervision for Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.11430v1
- Date: Sun, 18 Feb 2024 02:41:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 21:37:29.382200
- Title: EventRL: Enhancing Event Extraction with Outcome Supervision for Large
Language Models
- Title(参考訳): EventRL: 大規模言語モデルのアウトカムスーパービジョンによるイベント抽出の強化
- Authors: Jun Gao, Huan Zhao, Wei Wang, Changlong Yu, Ruifeng Xu
- Abstract要約: EventRLは、大規模言語モデル(LLM)のイベント抽出を強化するために開発された強化学習手法である。
FSP(Few-Shot Prompting)やSFT(Supervised Fine-Tuning)といった既存手法に対するEventRLの評価を行った。
以上の結果から,EventRLはイベントの識別・構造化性能を向上させることにより,従来の手法よりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 48.136950450053476
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we present EventRL, a reinforcement learning approach
developed to enhance event extraction for large language models (LLMs). EventRL
utilizes outcome supervision with specific reward functions to tackle prevalent
challenges in LLMs, such as instruction following and hallucination, manifested
as the mismatch of event structure and the generation of undefined event types.
We evaluate EventRL against existing methods like Few-Shot Prompting (FSP)
(based on GPT4) and Supervised Fine-Tuning (SFT) across various LLMs, including
GPT-4, LLaMa, and CodeLLaMa models. Our findings show that EventRL
significantly outperforms these conventional approaches by improving the
performance in identifying and structuring events, particularly in handling
novel event types. The study emphasizes the critical role of reward function
selection and demonstrates the benefits of incorporating code data for better
event extraction. While increasing model size leads to higher accuracy,
maintaining the ability to generalize is essential to avoid overfitting.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)におけるイベント抽出の強化を目的とした強化学習手法であるEventRLを提案する。
EventRLは、結果の監視と特定の報酬関数を利用して、イベント構造のミスマッチや未定義のイベントタイプの生成として表される命令の追従や幻覚といった、LLMの一般的な課題に取り組む。
我々は,Few-Shot Prompting (FSP) や Supervised Fine-Tuning (SFT) といった既存手法に対して,GPT-4, LLaMa, CodeLLaMa モデルを含む様々な LLM に対して EventRL を評価する。
以上の結果から,EventRLはイベントの識別や構造化,特に新しいイベントタイプへの対応において,従来の手法よりも優れていた。
この研究は、報酬関数の選択の重要な役割を強調し、より良いイベント抽出のためにコードデータを統合する利点を示す。
モデルサイズの増加は高い精度をもたらすが、オーバーフィットを避けるには一般化する能力を維持することが不可欠である。
関連論文リスト
- MAVEN-Fact: A Large-scale Event Factuality Detection Dataset [55.01875707021496]
我々は,MAVENデータセットに基づく大規模かつ高品質なEFDデータセットであるMAVEN-Factを紹介する。
MAVEN-Factには112,276のイベントのファクトリティアノテーションが含まれており、EFDデータセットとしては最大である。
MAVEN-Factは従来の微調整モデルと大規模言語モデル(LLM)の両方において困難であることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-07-22T03:43:46Z) - EVIT: Event-Oriented Instruction Tuning for Event Reasoning [18.012724531672813]
イベント推論は、特定の関係に従ってイベントを推論し、将来のイベントを予測することを目的としている。
大規模言語モデル(LLM)は、その豊富な知識と推論能力のために、イベント推論において大きな進歩を遂げている。
しかし、現在使われている命令調整モデルでは、これらのタスクを管理するのに例外的な習熟度が一貫して示されていない。
論文 参考訳(メタデータ) (2024-04-18T08:14:53Z) - Improving Event Definition Following For Zero-Shot Event Detection [66.27883872707523]
ゼロショットイベント検出に対する既存のアプローチは通常、既知のイベントタイプをアノテートしたデータセット上でモデルをトレーニングする。
イベント定義に従うためのトレーニングモデルによるゼロショットイベント検出の改善を目指しています。
論文 参考訳(メタデータ) (2024-03-05T01:46:50Z) - Distilling Event Sequence Knowledge From Large Language Models [17.105913216452738]
イベントシーケンスモデルは、イベントの分析と予測に非常に効果的であることが判明した。
我々は大規模言語モデルを用いて、確率的イベントモデル構築に効果的に使用できるイベントシーケンスを生成する。
提案手法は,入力KGの知識ギャップを埋めて,高品質なイベントシーケンスを生成することができることを示す。
論文 参考訳(メタデータ) (2024-01-14T09:34:42Z) - PILED: An Identify-and-Localize Framework for Few-Shot Event Detection [79.66042333016478]
本研究では,事前学習した言語モデルから事象関連知識を引き出すために,クローゼプロンプトを用いた。
型固有のパラメータの数を最小化し、新しい型に対するイベント検出タスクに迅速に適応できるようにします。
論文 参考訳(メタデータ) (2022-02-15T18:01:39Z) - Robust Event Classification Using Imperfect Real-world PMU Data [58.26737360525643]
本研究では,不完全な実世界のファサー計測単位(PMU)データを用いて,ロバストな事象分類について検討する。
我々は、堅牢なイベント分類器を訓練するための新しい機械学習フレームワークを開発する。
論文 参考訳(メタデータ) (2021-10-19T17:41:43Z) - Back to Prior Knowledge: Joint Event Causality Extraction via
Convolutional Semantic Infusion [5.566928318239452]
複合イベントと因果関係抽出は,情報検索とデータマイニングにおいて極めて重要な課題である。
共同抽出フレームワーク内で長さの異なる n-gram の頻繁な窓に対する畳み込み知識注入を提案する。
我々のモデルは強力なBERT+CSNNベースラインをはるかに上回る。
論文 参考訳(メタデータ) (2021-02-19T13:31:46Z) - Extensively Matching for Few-shot Learning Event Detection [66.31312496170139]
超視覚的な学習設定下でのイベント検出モデルは、新しいイベントタイプへの転送に失敗する。
イベント検出では、あまり画像学習は行われていない。
sup-port の例にマッチする2つのノベルロス因子を提案し,モデルにより多くのトレーニング信号を与える。
論文 参考訳(メタデータ) (2020-06-17T18:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。