論文の概要: MZET: Memory Augmented Zero-Shot Fine-grained Named Entity Typing
- arxiv url: http://arxiv.org/abs/2004.01267v2
- Date: Mon, 2 Nov 2020 19:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 12:39:13.656951
- Title: MZET: Memory Augmented Zero-Shot Fine-grained Named Entity Typing
- Title(参考訳): MZET: メモリ拡張されたゼロショットのきめ細かい名前付きエンティティ型
- Authors: Tao Zhang, Congying Xia, Chun-Ta Lu, Philip Yu
- Abstract要約: 名前付きエンティティタイピング(英語: Named entity typing, NET)は、コンテキスト内のエンティティ参照を与えられたセマンティックタイプに割り当てる分類タスクである。
本稿では,新しいメモリ拡張FNETモデルであるMZETを提案する。
MZETは文字レベル、単語レベル、文脈レベルの情報を組み込んでエンティティ参照表現を学習する。
- 参考スコア(独自算出の注目度): 11.88688584631821
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named entity typing (NET) is a classification task of assigning an entity
mention in the context with given semantic types. However, with the growing
size and granularity of the entity types, rare researches in previous concern
with newly emerged entity types. In this paper, we propose MZET, a novel memory
augmented FNET (Fine-grained NET) model, to tackle the unseen types in a
zero-shot manner. MZET incorporates character-level, word-level, and
contextural-level information to learn the entity mention representation.
Besides, MZET considers the semantic meaning and the hierarchical structure
into the entity type representation. Finally, through the memory component
which models the relationship between the entity mention and the entity type,
MZET transfer the knowledge from seen entity types to the zero-shot ones.
Extensive experiments on three public datasets show prominent performance
obtained by MZET, which surpasses the state-of-the-art FNET neural network
models with up to 7% gain in Micro-F1 and Macro-F1 score.
- Abstract(参考訳): 名前付きエンティティ型付け (named entity typing, net) は、与えられた意味型でコンテキスト内のエンティティ参照を割り当てる分類タスクである。
しかし、エンティティタイプのサイズと粒度の増加に伴い、新たに現れたエンティティタイプに関する以前の研究は稀である。
本稿では,新しいメモリ拡張FNET(Fine-fine NET)モデルであるMZETを提案する。
MZETは文字レベル、単語レベル、文脈レベルの情報を組み込んでエンティティ参照表現を学習する。
さらに、MZETは意味的意味と階層構造をエンティティの型表現として考える。
最後に、エンティティ参照とエンティティタイプの関係をモデル化するメモリコンポーネントを通じて、MZETは、見たエンティティタイプからゼロショットタイプへの知識を転送する。
MZETは最先端のFNETニューラルネットワークモデルを超え、Micro-F1とMacro-F1のスコアが最大7%向上している。
関連論文リスト
- Web-Scale Visual Entity Recognition: An LLM-Driven Data Approach [56.55633052479446]
Webスケールのビジュアルエンティティ認識は、クリーンで大規模なトレーニングデータがないため、重大な課題を呈している。
本稿では,ラベル検証,メタデータ生成,合理性説明に多モーダル大言語モデル(LLM)を活用することによって,そのようなデータセットをキュレートする新しい手法を提案する。
実験により、この自動キュレートされたデータに基づいてトレーニングされたモデルは、Webスケールの視覚的エンティティ認識タスクで最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-10-31T06:55:24Z) - OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Hypergraph based Understanding for Document Semantic Entity Recognition [65.84258776834524]
我々は,ハイパグラフアテンションを利用したハイパグラフアテンション文書セマンティックエンティティ認識フレームワークHGAを構築し,エンティティ境界とエンティティカテゴリを同時に重視する。
FUNSD, CORD, XFUNDIE で得られた結果は,本手法が意味的エンティティ認識タスクの性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2024-07-09T14:35:49Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - Multi-view Contrastive Learning for Entity Typing over Knowledge Graphs [25.399684403558553]
知識グラフ・エンティティ・タイピング(MCLET)のためのマルチビューコントラスト学習法を提案する。
MCLETはクラスタが提供する粗い知識をエンティティや型埋め込みに効果的にエンコードする。
論文 参考訳(メタデータ) (2023-10-18T14:41:09Z) - Entity Type Prediction Leveraging Graph Walks and Entity Descriptions [4.147346416230273]
textitGRANDは、RDF2vecの異なるグラフウォーク戦略とテキストエンティティ記述を利用したエンティティ型付けの新しいアプローチである。
提案手法は,細粒度クラスと粗粒度クラスの両方において,KGにおけるエンティティ型付けのためのベンチマークデータセットDBpediaとFIGERのベースラインアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-07-28T13:56:55Z) - Few-Shot Fine-Grained Entity Typing with Automatic Label Interpretation
and Instance Generation [36.541309948222306]
各エンティティタイプに対して,アノテーション付きエンティティ参照が付与される場合,FET(Fall-shot Fine-fine Entity Typing)の問題について検討する。
そこで本稿では,(1) エンティティ型ラベル解釈モジュールが,少数ショットインスタンスとラベル階層を併用することで,タイプラベルと語彙の関連付けを自動的に学習し,(2) 型ベースのコンテキスト化インスタンス生成器は,与えられたインスタンスに基づいて新しいインスタンスを生成して,より一般化のためにトレーニングセットを拡大する,という,2つのモジュールからなる新しいFETフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-28T04:05:40Z) - LUKE: Deep Contextualized Entity Representations with Entity-aware
Self-attention [37.111204321059084]
両方向変換器に基づく単語と実体の事前学習した文脈表現を提案する。
我々のモデルは、BERTのマスキング言語モデルに基づく新しい事前訓練タスクを用いて訓練される。
また,変換器の自己認識機構の拡張である自己認識機構を提案する。
論文 参考訳(メタデータ) (2020-10-02T15:38:03Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z) - Fine-Grained Named Entity Typing over Distantly Supervised Data Based on
Refined Representations [16.30478830298353]
Fine-Grained Named Entity Typing (FG-NET) は自然言語処理(NLP)の鍵となるコンポーネントである
本稿では,コーパスレベルの文脈的手がかりをエンド分類に先立ち,ノイズの多い参照表現を洗練させるエッジ重み付き注意グラフ畳み込みネットワークを提案する。
実験により,提案モデルではマクロf1とマイクロf1の相対スコアが10.2%,マクロf1が8.3%であった。
論文 参考訳(メタデータ) (2020-04-07T17:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。