論文の概要: Improving Recall of Large Language Models: A Model Collaboration Approach for Relational Triple Extraction
- arxiv url: http://arxiv.org/abs/2404.09593v1
- Date: Mon, 15 Apr 2024 09:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 13:38:59.029565
- Title: Improving Recall of Large Language Models: A Model Collaboration Approach for Relational Triple Extraction
- Title(参考訳): 大規模言語モデルのリコール改善:関係3重抽出のためのモデル協調手法
- Authors: Zepeng Ding, Wenhao Huang, Jiaqing Liang, Deqing Yang, Yanghua Xiao,
- Abstract要約: 長い文から三重項の集合を出力する関係三重抽出は、知識獲得において重要な役割を果たす。
大規模な言語モデルでは、適切な命令が与えられた場合、簡単な文から数ショットの学習や微調整によってトリプルを正確に抽出することができる。
本稿では,大規模言語モデルと小さなモデルを統合した評価フィルタリングフレームワークを設計する。
- 参考スコア(独自算出の注目度): 44.716502690026026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relation triple extraction, which outputs a set of triples from long sentences, plays a vital role in knowledge acquisition. Large language models can accurately extract triples from simple sentences through few-shot learning or fine-tuning when given appropriate instructions. However, they often miss out when extracting from complex sentences. In this paper, we design an evaluation-filtering framework that integrates large language models with small models for relational triple extraction tasks. The framework includes an evaluation model that can extract related entity pairs with high precision. We propose a simple labeling principle and a deep neural network to build the model, embedding the outputs as prompts into the extraction process of the large model. We conduct extensive experiments to demonstrate that the proposed method can assist large language models in obtaining more accurate extraction results, especially from complex sentences containing multiple relational triples. Our evaluation model can also be embedded into traditional extraction models to enhance their extraction precision from complex sentences.
- Abstract(参考訳): 長い文から三重項の集合を出力する関係三重抽出は、知識獲得において重要な役割を果たす。
大規模な言語モデルでは、適切な命令が与えられた場合、簡単な文から数ショットの学習や微調整によってトリプルを正確に抽出することができる。
しかし、複雑な文から抽出する際、しばしば見逃される。
本稿では,大規模言語モデルと小さなモデルを統合した評価フィルタリングフレームワークを設計する。
このフレームワークは、関連エンティティペアを高精度に抽出できる評価モデルを含む。
モデル構築のための単純なラベル付け原理とディープニューラルネットワークを提案し,大モデル抽出プロセスにインプットとして出力を埋め込む。
提案手法は大規模言語モデルにおいて,特に複数の関係三重項を含む複雑な文から,より正確な抽出結果を得るのに有効であることを示すために,広範な実験を行った。
我々の評価モデルは、複雑な文からの抽出精度を高めるために、従来の抽出モデルに組み込むこともできる。
関連論文リスト
- Towards Enhancing Coherence in Extractive Summarization: Dataset and Experiments with LLMs [70.15262704746378]
我々は,5つの公開データセットと自然言語ユーザフィードバックのためのコヒーレントな要約からなる,体系的に作成された人間アノテーションデータセットを提案する。
Falcon-40BとLlama-2-13Bによる予備的な実験では、コヒーレントなサマリーを生成するという点で大幅な性能向上(10%ルージュ-L)が見られた。
論文 参考訳(メタデータ) (2024-07-05T20:25:04Z) - TriSum: Learning Summarization Ability from Large Language Models with Structured Rationale [66.01943465390548]
本稿では,大規模言語モデルのテキスト要約能力を,コンパクトで局所的なモデルに抽出するフレームワークであるTriSumを紹介する。
本手法は,様々なベンチマーク上での局所モデル性能を向上させる。
また、要約の合理性に関する洞察を提供することで、解釈可能性も向上する。
論文 参考訳(メタデータ) (2024-03-15T14:36:38Z) - Instructive Dialogue Summarization with Query Aggregations [47.09097996947671]
本稿では,対話要約モデルの能力集合を拡張するために,命令精細言語モデルを提案する。
高品質なクエリベースの要約三重項を合成するための3段階のアプローチを提案する。
多目的インストラクティブトリプルを用いた3つの要約データセット上で、InstructDSと呼ばれる統一モデルをトレーニングすることにより、対話要約モデルの能力を拡大する。
論文 参考訳(メタデータ) (2023-10-17T04:03:00Z) - How to Unleash the Power of Large Language Models for Few-shot Relation
Extraction? [28.413620806193165]
本稿では,GPT-3.5による数ショット関係抽出のための主要な手法,文脈内学習とデータ生成について検討する。
テキスト内学習は,従来の素早い学習手法と同等のパフォーマンスを達成でき,大規模言語モデルによるデータ生成は,従来のソリューションを推し進めて,最先端の複数ショットの新たな結果が得られることを観察する。
論文 参考訳(メタデータ) (2023-05-02T15:55:41Z) - RelationPrompt: Leveraging Prompts to Generate Synthetic Data for
Zero-Shot Relation Triplet Extraction [65.4337085607711]
ゼロショット関係トリプルト抽出(ZeroRTE)のタスク設定について紹介する。
入力文が与えられた後、抽出された各三重項は、トレーニング段階で関係ラベルが見えないヘッドエンティティ、リレーションラベル、テールエンティティから構成される。
本稿では、言語モデルに構造化テキストを生成するよう促すことで、関係例を合成する。
論文 参考訳(メタデータ) (2022-03-17T05:55:14Z) - OneRel:Joint Entity and Relation Extraction with One Module in One Step [42.576188878294886]
統合エンティティと関係抽出は自然言語処理と知識グラフ構築において不可欠な課題である。
そこで我々は, 結合抽出を細粒度三重分類問題として用いた, OneRel という新しい結合実体と関係抽出モデルを提案する。
論文 参考訳(メタデータ) (2022-03-10T15:09:59Z) - Bridging Text and Knowledge with Multi-Prototype Embedding for Few-Shot
Relational Triple Extraction [40.00702385889112]
本稿では,関係三重項の合成を共同で抽出する,新しいマルチプロトタイプ埋め込みネットワークモデルを提案する。
我々は、エンティティとリレーションの両方に関するテキストと知識を橋渡しするハイブリッド学習機構を設計する。
実験により, 提案手法は, 数発トリプル抽出の性能を向上させることができることを示した。
論文 参考訳(メタデータ) (2020-10-30T04:18:39Z) - Unsupervised Relation Extraction from Language Models using Constrained
Cloze Completion [7.9850810440877975]
本研究では,現在最先端の自己教師型言語モデルを用いてコーパスから関係を抽出し,微調整された抽出ヘッドを訓練する必要がないことを示す。
本稿では、事前訓練された言語モデル上で制約付きクローゼ補完を実行し、教師なし関係抽出を行うためのシンプルなフレームワークであるRE-Flexを紹介する。
論文 参考訳(メタデータ) (2020-10-14T04:21:57Z) - Contrastive Triple Extraction with Generative Transformer [72.21467482853232]
生成変換器を用いた新しい3重抽出モデルを提案する。
具体的には,エンコーダデコーダをベースとした1つの共有トランスフォーマモジュールを提案する。
忠実な結果を得るために,新しい三重項コントラストトレーニングオブジェクトを提案する。
論文 参考訳(メタデータ) (2020-09-14T05:29:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。