論文の概要: ZS4IE: A toolkit for Zero-Shot Information Extraction with simple
Verbalizations
- arxiv url: http://arxiv.org/abs/2203.13602v2
- Date: Mon, 28 Mar 2022 07:50:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 10:58:48.585736
- Title: ZS4IE: A toolkit for Zero-Shot Information Extraction with simple
Verbalizations
- Title(参考訳): ZS4IE: 単純言語化によるゼロショット情報抽出ツールキット
- Authors: Oscar Sainz, Haoling Qiu, Oier Lopez de Lacalle, Eneko Agirre and
Bonan Min
- Abstract要約: このデモでは、情報抽出(IE)アナリストのための新しいワークフローが導入されている。
アナリストはエンティティ/リレーションを直接言語化し、テキスト・エンターメント・モデルによってゼロショットIEを実行するために使用される。
このシステムは、ユーザの努力のタイプにつき5~15分しか使用せず、ゼロショット学習において非常に優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 25.52352451450403
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The current workflow for Information Extraction (IE) analysts involves the
definition of the entities/relations of interest and a training corpus with
annotated examples. In this demonstration we introduce a new workflow where the
analyst directly verbalizes the entities/relations, which are then used by a
Textual Entailment model to perform zero-shot IE. We present the design and
implementation of a toolkit with a user interface, as well as experiments on
four IE tasks that show that the system achieves very good performance at
zero-shot learning using only 5--15 minutes per type of a user's effort. Our
demonstration system is open-sourced at https://github.com/BBN-E/ZS4IE . A
demonstration video is available at https://vimeo.com/676138340 .
- Abstract(参考訳): 情報抽出(IE)アナリストのための現在のワークフローには、関心の実体/関係の定義と注釈付き例によるトレーニングコーパスが含まれる。
このデモでは、アナリストがエンティティ/リレーションを直接言語化する新しいワークフローを紹介します。
本稿では,ユーザインタフェースを用いたツールキットの設計と実装,および,ユーザの作業のタイプ5~15分でゼロショット学習において,システムが非常に優れた性能を発揮することを示す4つのIEタスクの実験を紹介する。
デモシステムはhttps://github.com/BBN-E/ZS4IEで公開されている。
デモビデオはhttps://vimeo.com/676138340。
関連論文リスト
- ADELIE: Aligning Large Language Models on Information Extraction [55.60192044049083]
大規模言語モデル(LLM)は通常、情報抽出タスクで不足する。
本稿では,様々なIEタスクを効果的に解決する協調LLMであるADELIEを紹介する。
本稿では,オープンソースモデル間でのSoTA(State-of-the-art)性能について述べる。
論文 参考訳(メタデータ) (2024-05-08T12:24:52Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - Instruct and Extract: Instruction Tuning for On-Demand Information
Extraction [86.29491354355356]
On-Demand Information extractは、現実世界のユーザのパーソナライズされた要求を満たすことを目的としている。
InstructIEというベンチマークを、自動生成したトレーニングデータと、人手による注釈付きテストセットの両方を含む形で提示する。
InstructIE 上に構築した On-Demand Information Extractor, ODIE をさらに発展させる。
論文 参考訳(メタデータ) (2023-10-24T17:54:25Z) - LLM4Vis: Explainable Visualization Recommendation using ChatGPT [21.875548217393927]
そこで我々は,ChatGPTをベースとした新しい手法を提案する。
提案手法は,特徴記述,実演例選択,説明生成,実演例構築,推論ステップを含む。
論文 参考訳(メタデータ) (2023-10-11T16:51:46Z) - Tool Documentation Enables Zero-Shot Tool-Usage with Large Language
Models [90.96816639172464]
大規模言語モデル(LLM)は、ツールの使用のデモを提供することで、新しいツールを使用するように教えられている。
デモよりも、ツールドキュメンテーションの使用、個々のツール使用方法の説明を推奨します。
論文 参考訳(メタデータ) (2023-08-01T17:21:38Z) - Do Models Really Learn to Follow Instructions? An Empirical Study of
Instruction Tuning [37.01833561948585]
命令チューニング(IT)に関する最近の研究は、目に見えないタスクに対してゼロショットの一般化性で大きな成果を上げている。
我々は、モデルトレーニングと変更した命令と元の命令とを比較して、モデルがどのようにITのインストラクションを利用するかを分析する。
論文 参考訳(メタデータ) (2023-05-19T02:00:47Z) - Easy-to-Hard Learning for Information Extraction [57.827955646831526]
情報抽出システムは、構造化されていないテキストから構造化された情報を自動的に抽出することを目的としている。
本稿では,3段階,すなわち易解な段階,難解な段階,主段階の3段階からなる統合型易解学習フレームワークを提案する。
学習プロセスを複数の段階に分割することで,一般のIEタスク知識の獲得と一般化能力の向上が促進される。
論文 参考訳(メタデータ) (2023-05-16T06:04:14Z) - Toolformer: Language Models Can Teach Themselves to Use Tools [62.04867424598204]
言語モデル(LM)は、特に大規模において、いくつかの例やテキスト命令から新しいタスクを解く素晴らしい能力を示す。
LMは、シンプルなAPIを通じて外部ツールの使用を自覚し、両方の世界のベストを達成できることを示します。
Toolformerは、どのAPIを呼び出すか、いつ呼び出すか、どの引数を渡すか、結果を将来のトークン予測に最もうまく組み込む方法を訓練したモデルです。
論文 参考訳(メタデータ) (2023-02-09T16:49:57Z) - Self-Generated In-Context Learning: Leveraging Auto-regressive Language
Models as a Demonstration Generator [22.532627423361177]
自己生成型インコンテキスト学習(SG-ICL)は、PLM自体からインコンテキスト学習のためのデモを生成する。
我々は、SG-ICLがゼロショット学習を著しく上回り、一般的に約0.6金のトレーニングサンプルの価値があることを示した。
論文 参考訳(メタデータ) (2022-06-16T10:52:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。