論文の概要: Instruction-Tuning LLMs for Event Extraction with Annotation Guidelines
- arxiv url: http://arxiv.org/abs/2502.16377v1
- Date: Sat, 22 Feb 2025 22:38:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:55:30.787470
- Title: Instruction-Tuning LLMs for Event Extraction with Annotation Guidelines
- Title(参考訳): アノテーションガイドラインによるイベント抽出のための命令調整LDM
- Authors: Saurabh Srivastava, Sweta Pati, Ziyu Yao,
- Abstract要約: イベント抽出のための大規模言語モデルの指導訓練において,アノテーションガイドライン(イベントタイプと引数のテキスト記述)の効果について検討する。
我々は人為的ガイドラインと機械的ガイドラインの両方を用いて、フルデータとローデータの両方で一連の実験を行った。
- 参考スコア(独自算出の注目度): 7.9010726667893385
- License:
- Abstract: In this work, we study the effect of annotation guidelines -- textual descriptions of event types and arguments, when instruction-tuning large language models for event extraction. We conducted a series of experiments with both human-provided and machine-generated guidelines in both full- and low-data settings. Our results demonstrate the promise of annotation guidelines when there is a decent amount of training data and highlight its effectiveness in improving cross-schema generalization and low-frequency event-type performance.
- Abstract(参考訳): 本研究では,イベントタイプや議論のテキスト記述に関するガイドラインが,イベント抽出のための大規模言語モデルの指導訓練に与える影響について検討する。
我々は人為的ガイドラインと機械的ガイドラインの両方を用いて、フルデータとローデータの両方で一連の実験を行った。
本研究は,十分な量のトレーニングデータが存在する場合のガイドラインの約束を実証し,クロススキーマの一般化と低周波イベント型性能の向上にその効果を強調した。
関連論文リスト
- Instruction Tuning for Story Understanding and Generation with Weak Supervision [0.5530212768657544]
本稿では,ストーリー生成を改善するために,"Weak to Strong Instruction Tuning"という新しいアプローチを提案する。
本手法は物語の理解と生成における性能を著しく向上させることを示す。
本研究は, 複雑な物語タスクのための生成モデルを改良する上で, 適応的指導チューニングが強力なツールであることを示す。
論文 参考訳(メタデータ) (2025-01-26T15:59:31Z) - Aligning Instruction Tuning with Pre-training [81.4748965653345]
そこで我々は,AITP(Aligning Instruction Tuning with Pre-training)を提案する。
8つのベンチマークで3つの完全にオープンな大規模言語モデル(LLM)上で,AITPによる一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2025-01-16T08:27:40Z) - Decompose, Enrich, and Extract! Schema-aware Event Extraction using LLMs [45.83950260830323]
この作業は、イベント抽出を自動化するために、大規模言語モデルを活用することに焦点を当てている。
タスクをイベント検出とイベント引数抽出に分解することで、幻覚に対処する新しい方法が導入された。
論文 参考訳(メタデータ) (2024-06-03T06:55:10Z) - DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Annotation Sensitivity: Training Data Collection Methods Affect Model
Performance [7.066223472133622]
この研究は、アノテーションを作成する際の設計上の選択が、結果として得られるアノテーションに基づいてトレーニングされたモデルにも影響を及ぼすことを示した。
本研究では,アノテータをランダムにアノテータにアノテータを割り当てた5つの実験条件において,ヘイトスピーチのアノテーションと攻撃言語を収集する。
その結果,1)ヘイトスピーチ/感情言語アノテーションの共有,2)モデル性能,3)モデル予測,および4)モデル学習曲線の相違が認められた。
論文 参考訳(メタデータ) (2023-11-23T21:54:22Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Re-Examining Human Annotations for Interpretable NLP [80.81532239566992]
我々は、Interpretable NLPで広く使われている2つのデータセット上で、クラウドソースのウェブサイトを用いて制御実験を行う。
我々は,異なる資格レベルを満たす人材の募集から得られた注釈結果を比較した。
以上の結果から,アノテーションの品質は労働者の資格に高い影響を受けており,労働者は指示によって特定のアノテーションを提供するように指導することができることがわかった。
論文 参考訳(メタデータ) (2022-04-10T02:27:30Z) - Skill Induction and Planning with Latent Language [94.55783888325165]
我々は、ゴールがハイレベルなサブタスク記述のシーケンスを生成するアクションシーケンスの生成モデルを定式化する。
本稿では、このモデルを、主に注釈のないデモを用いて、名前付きハイレベルなサブタスクのシーケンスに解析する方法について述べる。
訓練されたモデルでは、自然言語コマンドの空間はスキルのライブラリを索引付けする;エージェントはこれらのスキルを使って、新しい目標に適した高いレベルの命令シーケンスを生成する。
論文 参考訳(メタデータ) (2021-10-04T15:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。