論文の概要: Few-Shot Fine-Grained Entity Typing with Automatic Label Interpretation
and Instance Generation
- arxiv url: http://arxiv.org/abs/2206.13746v1
- Date: Tue, 28 Jun 2022 04:05:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:00:58.464936
- Title: Few-Shot Fine-Grained Entity Typing with Automatic Label Interpretation
and Instance Generation
- Title(参考訳): ラベル自動解釈とインスタンス生成によるファウショットファイングラインドエンティティタイピング
- Authors: Jiaxin Huang, Yu Meng, Jiawei Han
- Abstract要約: 各エンティティタイプに対して,アノテーション付きエンティティ参照が付与される場合,FET(Fall-shot Fine-fine Entity Typing)の問題について検討する。
そこで本稿では,(1) エンティティ型ラベル解釈モジュールが,少数ショットインスタンスとラベル階層を併用することで,タイプラベルと語彙の関連付けを自動的に学習し,(2) 型ベースのコンテキスト化インスタンス生成器は,与えられたインスタンスに基づいて新しいインスタンスを生成して,より一般化のためにトレーニングセットを拡大する,という,2つのモジュールからなる新しいFETフレームワークを提案する。
- 参考スコア(独自算出の注目度): 36.541309948222306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of few-shot Fine-grained Entity Typing (FET), where only
a few annotated entity mentions with contexts are given for each entity type.
Recently, prompt-based tuning has demonstrated superior performance to standard
fine-tuning in few-shot scenarios by formulating the entity type classification
task as a ''fill-in-the-blank'' problem. This allows effective utilization of
the strong language modeling capability of Pre-trained Language Models (PLMs).
Despite the success of current prompt-based tuning approaches, two major
challenges remain: (1) the verbalizer in prompts is either manually designed or
constructed from external knowledge bases, without considering the target
corpus and label hierarchy information, and (2) current approaches mainly
utilize the representation power of PLMs, but have not explored their
generation power acquired through extensive general-domain pre-training. In
this work, we propose a novel framework for few-shot FET consisting of two
modules: (1) an entity type label interpretation module automatically learns to
relate type labels to the vocabulary by jointly leveraging few-shot instances
and the label hierarchy, and (2) a type-based contextualized instance generator
produces new instances based on given instances to enlarge the training set for
better generalization. On three benchmark datasets, our model outperforms
existing methods by significant margins. Code can be found at
https://github.com/teapot123/Fine-Grained-Entity-Typing.
- Abstract(参考訳): 各エンティティタイプに対して,アノテーション付きエンティティ参照が付与される場合,FET(Fall-shot Fine-fine Entity Typing)の問題について検討する。
近年,プロンプトベースのチューニングは,エンティティ型分類タスクを「補充型ブランク」問題として定式化し,いくつかのシナリオにおいて標準的な微調整よりも優れた性能を示した。
これにより、事前学習言語モデル(PLM)の強力な言語モデリング能力を効果的に活用することができる。
現在のプロンプトベースのチューニング手法の成功にもかかわらず、(1)プロンプトの動詞化器は、ターゲットコーパスやラベル階層情報を考慮せずに、手作業で設計または外部知識ベースから構築されるか、(2)plmの表現力を主に活用するが、広範囲な一般ドメイン事前学習によって獲得した生成能力を探求していないという2つの大きな課題が残っている。
そこで本研究では,(1)エンティティ型ラベル解釈モジュールが,マイトショットインスタンスとラベル階層を併用して,自動的にタイプラベルを語彙に関連付けることを学び,(2)タイプベースのコンテキスト化インスタンス生成器が与えられたインスタンスに基づいて新しいインスタンスを生成し,より一般化するためにトレーニングセットを拡大する,という2つのモジュールからなる,マイトショットfetの新しいフレームワークを提案する。
3つのベンチマークデータセットで、我々のモデルは既存の手法よりも大幅に優れています。
コードはhttps://github.com/teapot123/Fine-Grained-Entity-Typingで見ることができる。
関連論文リスト
- Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - Multi-Modal Classifiers for Open-Vocabulary Object Detection [104.77331131447541]
本論文の目的は,OVOD(Open-vocabulary Object Detection)である。
標準の2段階オブジェクト検出器アーキテクチャを採用する。
言語記述、画像例、これら2つの組み合わせの3つの方法を探究する。
論文 参考訳(メタデータ) (2023-06-08T18:31:56Z) - PromptNER: Prompt Locating and Typing for Named Entity Recognition [39.81221703760443]
本稿では,位置スロットとタイプスロットを備えたデュアルスロットマルチプロンプトテンプレートを設計し,位置決めとタイピングを高速化する。
複数のプロンプトを同時にモデルに入力し、そのモデルがスロット上の並列予測によってすべてのエンティティを抽出する。
実験結果から,提案手法は特にクロスドメイン・ショット・セッティングにおいて,大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2023-05-26T17:16:11Z) - Automated Few-shot Classification with Instruction-Finetuned Language
Models [76.69064714392165]
我々は、AuT-Fewが最先端の数ショット学習方法より優れていることを示す。
AuT-Few は RAFT few-shot ベンチマークにおいて,データセット間で最高のランク付け手法であることを示す。
論文 参考訳(メタデータ) (2023-05-21T21:50:27Z) - Learning Label Modular Prompts for Text Classification in the Wild [56.66187728534808]
そこで本研究では,非定常学習/テスト段階の異なるテキスト分類手法を提案する。
複雑なタスクをモジュラー成分に分解することで、そのような非定常環境下での堅牢な一般化が可能になる。
テキスト分類タスクのためのラベルモジュール型プロンプトチューニングフレームワークMODcularPROMPTを提案する。
論文 参考訳(メタデータ) (2022-11-30T16:26:38Z) - Generative Entity Typing with Curriculum Learning [18.43562065432877]
本稿では,新しい生成エンティティタイピング(GET)パラダイムを提案する。
エンティティが言及したテキストが与えられた場合、エンティティがテキストで果たす役割の複数の型は、事前訓練された言語モデルで生成される。
我々の実験は、最先端エンティティ型付けモデルよりもGETモデルの方が優れていることを正当化します。
論文 参考訳(メタデータ) (2022-10-06T13:32:50Z) - Entity Type Prediction Leveraging Graph Walks and Entity Descriptions [4.147346416230273]
textitGRANDは、RDF2vecの異なるグラフウォーク戦略とテキストエンティティ記述を利用したエンティティ型付けの新しいアプローチである。
提案手法は,細粒度クラスと粗粒度クラスの両方において,KGにおけるエンティティ型付けのためのベンチマークデータセットDBpediaとFIGERのベースラインアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-07-28T13:56:55Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z) - E2EET: From Pipeline to End-to-end Entity Typing via Transformer-Based
Embeddings [7.431445082017672]
エンティティタイピング(ET)と呼ばれる新しいタイプのエンティティタイピングを提案する。
ETは、各エンティティの言及を1つ以上のクラスラベルでラベル付けする。
本稿では,参照レベルモデルに対するトランスフォーマーベースの埋め込みと,Bi-GRUを用いたエンドツーエンドモデルを用いてコンテキストを組み込むことを提案する。
広範囲にわたるアブレーション研究は、参照レベルのモデルに対する文脈的埋め込みの有効性と、エンティティ型付けのためのエンドツーエンドモデルの競争性を示している。
論文 参考訳(メタデータ) (2020-03-23T06:46:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。