論文の概要: Zero-Shot Information Extraction via Chatting with ChatGPT
- arxiv url: http://arxiv.org/abs/2302.10205v1
- Date: Mon, 20 Feb 2023 12:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-22 17:28:25.290383
- Title: Zero-Shot Information Extraction via Chatting with ChatGPT
- Title(参考訳): ChatGPTを用いたチャットによるゼロショット情報抽出
- Authors: Xiang Wei, Xingyu Cui, Ning Cheng, Xiaobin Wang, Xin Zhang, Shen
Huang, Pengjun Xie, Jinan Xu, Yufeng Chen, Meishan Zhang, Yong Jiang, and
Wenjuan Han
- Abstract要約: ゼロショット情報抽出(IE)は、注釈のないテキストからIEシステムを構築することを目的としている。
大規模言語モデル(LLMs、GPT-3、ChatGPT)に対する最近の取り組みは、ゼロショット設定での有望なパフォーマンスを示している。
ゼロショットIEタスクを2段階フレームワーク(ChatIE)でマルチターン質問応答問題に変換する。
- 参考スコア(独自算出の注目度): 56.758013354710194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-shot information extraction (IE) aims to build IE systems from the
unannotated text. It is challenging due to involving little human intervention.
Challenging but worthwhile, zero-shot IE reduces the time and effort that data
labeling takes. Recent efforts on large language models (LLMs, e.g., GPT-3,
ChatGPT) show promising performance on zero-shot settings, thus inspiring us to
explore prompt-based methods. In this work, we ask whether strong IE models can
be constructed by directly prompting LLMs. Specifically, we transform the
zero-shot IE task into a multi-turn question-answering problem with a two-stage
framework (ChatIE). With the power of ChatGPT, we extensively evaluate our
framework on three IE tasks: entity-relation triple extract, named entity
recognition, and event extraction. Empirical results on six datasets across two
languages show that ChatIE achieves impressive performance and even surpasses
some full-shot models on several datasets (e.g., NYT11-HRL). We believe that
our work could shed light on building IE models with limited resources.
- Abstract(参考訳): ゼロショット情報抽出(IE)は、注釈のないテキストからIEシステムを構築することを目的としている。
人間の介入がほとんどないため、これは難しい。
価値はあるものの、ゼロショットIEはデータのラベル付けにかかる時間と労力を減らす。
大規模言語モデル(LLMs、GPT-3、ChatGPT)に対する最近の取り組みは、ゼロショット設定における有望なパフォーマンスを示しており、プロンプトベースの手法を探求するきっかけとなっている。
本研究では,LLMを直接的に推進することで,強力なIEモデルを構築できるかどうかを問う。
具体的には、ゼロショットIEタスクを2段階フレームワーク(ChatIE)でマルチターン質問応答問題に変換する。
本稿では,ChatGPTの力により,エンティティリレーショントリプル抽出,名前付きエンティティ認識,イベント抽出という3つのIEタスクの枠組みを広く評価する。
2つの言語にわたる6つのデータセットの実証的な結果から、ChatIEは印象的なパフォーマンスを実現し、いくつかのデータセット(例えばNYT11-HRL)のフルショットモデルを超えている。
私たちは、限られたリソースでIEモデルを構築することに注力できると考えています。
関連論文リスト
- ADELIE: Aligning Large Language Models on Information Extraction [55.60192044049083]
大規模言語モデル(LLM)は通常、情報抽出タスクで不足する。
本稿では,様々なIEタスクを効果的に解決する協調LLMであるADELIEを紹介する。
本稿では,オープンソースモデル間でのSoTA(State-of-the-art)性能について述べる。
論文 参考訳(メタデータ) (2024-05-08T12:24:52Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Mirror: A Universal Framework for Various Information Extraction Tasks [28.43708291298155]
我々は、様々なIEタスク、すなわちMirrorのための普遍的なフレームワークを提案する。
我々は,既存のIEタスクをマルチスパン巡回グラフ抽出問題として再評価し,非自己回帰グラフ復号アルゴリズムを考案した。
我々のモデルは、SOTAシステムとの互換性や性能に優れ、競争性能に優れています。
論文 参考訳(メタデータ) (2023-11-09T14:58:46Z) - WebIE: Faithful and Robust Information Extraction on the Web [7.361265860494963]
We present WebIE, a first large-scale, entity-linked closed IE dataset with 1.6M sentences。
WebIEには否定的な例、すなわち事実の3倍の文が含まれており、ウェブ上のデータをよく反映している。
生成IEモデルのドメイン内, ドメイン内, ドメイン内, ゼロショットの言語間性能を評価し, WebIE で訓練されたモデルの方がより汎用性が高いことを示す。
論文 参考訳(メタデータ) (2023-05-23T17:37:53Z) - InstructIE: A Bilingual Instruction-based Information Extraction Dataset [44.65162892808696]
大きな言語モデルは、一般的な自然言語処理でうまく機能するが、その効果は情報抽出(IE)の亜最適である。
最近の研究によると、主な理由はIE命令に関する広範なデータが不足していることにある。
InstructIEは、12のドメインをカバーするバイリンガル命令ベースのIEデータセットである。
論文 参考訳(メタデータ) (2023-05-19T08:51:11Z) - Easy-to-Hard Learning for Information Extraction [57.827955646831526]
情報抽出システムは、構造化されていないテキストから構造化された情報を自動的に抽出することを目的としている。
本稿では,3段階,すなわち易解な段階,難解な段階,主段階の3段階からなる統合型易解学習フレームワークを提案する。
学習プロセスを複数の段階に分割することで,一般のIEタスク知識の獲得と一般化能力の向上が促進される。
論文 参考訳(メタデータ) (2023-05-16T06:04:14Z) - CodeIE: Large Code Generation Models are Better Few-Shot Information
Extractors [92.17328076003628]
大規模コーパスで事前訓練された大規模言語モデル(LLM)は、多くのNLPタスクにおいて、驚くべき数ショットの学習能力を示している。
本稿では、自然言語の代わりに構造化された出力をコード形式で再キャストすることを提案する。
論文 参考訳(メタデータ) (2023-05-09T18:40:31Z) - Understanding HTML with Large Language Models [73.92747433749271]
大規模言語モデル(LLM)は、様々な自然言語タスクにおいて例外的な性能を示している。
我々は,HTML 理解モデル (微調整 LLM ) と,その機能に関する3つのタスクの詳細な分析に貢献する。
本稿では,標準自然言語コーパスで事前訓練されたLLMが,HTML理解タスクに極めて適していることを示す。
論文 参考訳(メタデータ) (2022-10-08T07:27:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。