論文の概要: ADELIE: Aligning Large Language Models on Information Extraction
- arxiv url: http://arxiv.org/abs/2405.05008v2
- Date: Thu, 24 Oct 2024 10:41:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:50:22.441163
- Title: ADELIE: Aligning Large Language Models on Information Extraction
- Title(参考訳): ADELIE:情報抽出における大規模言語モデルの調整
- Authors: Yunjia Qi, Hao Peng, Xiaozhi Wang, Bin Xu, Lei Hou, Juanzi Li,
- Abstract要約: 大規模言語モデル(LLM)は通常、情報抽出タスクで不足する。
本稿では,様々なIEタスクを効果的に解決する協調LLMであるADELIEを紹介する。
本稿では,オープンソースモデル間でのSoTA(State-of-the-art)性能について述べる。
- 参考スコア(独自算出の注目度): 55.60192044049083
- License:
- Abstract: Large language models (LLMs) usually fall short on information extraction (IE) tasks and struggle to follow the complex instructions of IE tasks. This primarily arises from LLMs not being aligned with humans, as mainstream alignment datasets typically do not include IE data. In this paper, we introduce ADELIE (Aligning large language moDELs on Information Extraction), an aligned LLM that effectively solves various IE tasks, including closed IE, open IE, and on-demand IE. We first collect and construct a high-quality alignment corpus IEInstruct for IE. Then we train ADELIE_SFT using instruction tuning on IEInstruct. We further train ADELIE_SFT with direct preference optimization (DPO) objective, resulting in ADELIE_DPO. Extensive experiments on various held-out IE datasets demonstrate that our models (ADELIE_SFT and ADELIE_DPO) achieve state-of-the-art (SoTA) performance among open-source models. We further explore the general capabilities of ADELIE, and experimental results reveal that their general capabilities do not exhibit a noticeable decline. We will release the code, data, and models to facilitate further research.
- Abstract(参考訳): 大規模言語モデル(LLM)は通常、情報抽出(IE)タスクに不足し、IEタスクの複雑な指示に従うのに苦労する。
メインストリームのアライメントデータセットはIEデータを含んでいないことが多いため、LLMが人間と整合していないことが主な原因である。
本稿では, クローズドIE, オープンIE, オンデマンドIEなど, 多様なIEタスクを効果的に解決する協調LLMであるADELIEを紹介する。
まず、IEのIEインストラクトの高品質なアライメントコーパスを収集、構築する。
次に、IEInstructのインストラクションチューニングを使用してADELIE_SFTをトレーニングします。
さらに、ADELIE_SFTを直接選好最適化(DPO)目標で訓練し、結果としてADELIE_DPOとなる。
様々な保持されたIEデータセットに対する大規模な実験により、我々のモデル(ADELIE_SFTとADELIE_DPO)がオープンソースモデル間での最先端(SoTA)のパフォーマンスを達成することが示された。
さらにADELIEの汎用能力について検討し、実験結果から、それらの汎用能力は顕著な低下を示さないことが明らかとなった。
さらなる研究を促進するために、コード、データ、モデルをリリースします。
関連論文リスト
- MetaIE: Distilling a Meta Model from LLM for All Kinds of Information Extraction Tasks [40.84745946091173]
我々は「重要な情報」を抽出することを学ぶことで、メタモデルとして小さなLMを構築するための新しいフレームワークであるMetaIEを提案する。
特にMetaIEはラベル・ツー・スパン方式に従ってLDMからシンボル蒸留により小型のLMを得る。
本研究では,言語モデルの事前学習データセットから文を抽出し,蒸留データセットを構築する。
数ショットの適応設定でメタモデルを評価する。
論文 参考訳(メタデータ) (2024-03-30T19:43:45Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - GoLLIE: Annotation Guidelines improve Zero-Shot Information-Extraction [25.028613319081696]
GLLIE(Guideline-following Large Language Model for IE)を提案する。
GoLLIEは、目に見えないガイドラインを一般化し、フォローすることができ、ゼロショット情報抽出の以前の試みよりも優れている。
論文 参考訳(メタデータ) (2023-10-05T16:43:13Z) - PIVOINE: Instruction Tuning for Open-world Information Extraction [53.98073623222221]
構造化されていないテキストから包括的エンティティプロファイルを抽出するオープンワールド情報抽出(オープンワールドIE)の問題を考える。
我々は,オープンワールドIEを動作させ,自然言語命令を特徴とする目的のエンティティプロファイルを抽出できる大規模言語モデル(LLM)を開発した。
特にINSTRUCTOPENWIKIは,包括的コーパス,豊富なアノテーション,多種多様な命令を満載したオープンワールドIE向け指導チューニングデータセットである。
論文 参考訳(メタデータ) (2023-05-24T08:52:08Z) - InteractiveIE: Towards Assessing the Strength of Human-AI Collaboration
in Improving the Performance of Information Extraction [48.45550809455558]
文書からテンプレートをベースとした学習情報抽出の性能向上を図るために,対話IE(InteractiveIE)と呼ばれるプロキシをオンザフライで行う方法を提案する。
バイオメディカルおよび法的文書の実験では、トレーニングデータを取得するのが高価であり、AIのみのベースラインよりもInteractiveIEを使用したパフォーマンス改善の奨励的な傾向が明らかにされている。
論文 参考訳(メタデータ) (2023-05-24T02:53:22Z) - InstructIE: A Bilingual Instruction-based Information Extraction Dataset [44.65162892808696]
大きな言語モデルは、一般的な自然言語処理でうまく機能するが、その効果は情報抽出(IE)の亜最適である。
最近の研究によると、主な理由はIE命令に関する広範なデータが不足していることにある。
InstructIEは、12のドメインをカバーするバイリンガル命令ベースのIEデータセットである。
論文 参考訳(メタデータ) (2023-05-19T08:51:11Z) - CodeIE: Large Code Generation Models are Better Few-Shot Information
Extractors [92.17328076003628]
大規模コーパスで事前訓練された大規模言語モデル(LLM)は、多くのNLPタスクにおいて、驚くべき数ショットの学習能力を示している。
本稿では、自然言語の代わりに構造化された出力をコード形式で再キャストすることを提案する。
論文 参考訳(メタデータ) (2023-05-09T18:40:31Z) - LSOIE: A Large-Scale Dataset for Supervised Open Information Extraction [0.9966318185310058]
我々は、QA-SRL 2.0データセットを大規模オープン情報抽出(OIE)データセット(LSOIE)に変換することにより、新しいデータセットを導入する。
我々のLSOIEデータセットは、次の大きな人間アノテーションOIEデータセット(LSOIE)の20倍の大きさです。
論文 参考訳(メタデータ) (2021-01-27T02:49:26Z) - SciREX: A Challenge Dataset for Document-Level Information Extraction [56.83748634747753]
ドキュメントレベルで大規模な情報抽出データセットを作成するのは難しい。
複数のIEタスクを含む文書レベルのIEデータセットであるSciREXを紹介する。
我々は、従来の最先端のIEモデルをドキュメントレベルのIEに拡張する強力なベースラインとして、ニューラルモデルを開発する。
論文 参考訳(メタデータ) (2020-05-01T17:30:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。