論文の概要: E2EET: From Pipeline to End-to-end Entity Typing via Transformer-Based
Embeddings
- arxiv url: http://arxiv.org/abs/2003.10097v1
- Date: Mon, 23 Mar 2020 06:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:08:12.040406
- Title: E2EET: From Pipeline to End-to-end Entity Typing via Transformer-Based
Embeddings
- Title(参考訳): E2EET: Transformerベースの埋め込みによるパイプラインからエンドツーエンドのエンティティタイプ
- Authors: Michael Stewart and Wei Liu
- Abstract要約: エンティティタイピング(ET)と呼ばれる新しいタイプのエンティティタイピングを提案する。
ETは、各エンティティの言及を1つ以上のクラスラベルでラベル付けする。
本稿では,参照レベルモデルに対するトランスフォーマーベースの埋め込みと,Bi-GRUを用いたエンドツーエンドモデルを用いてコンテキストを組み込むことを提案する。
広範囲にわたるアブレーション研究は、参照レベルのモデルに対する文脈的埋め込みの有効性と、エンティティ型付けのためのエンドツーエンドモデルの競争性を示している。
- 参考スコア(独自算出の注目度): 7.431445082017672
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity Typing (ET) is the process of identifying the semantic types of every
entity within a corpus. In contrast to Named Entity Recognition, where each
token in a sentence is labelled with zero or one class label, ET involves
labelling each entity mention with one or more class labels. Existing entity
typing models, which operate at the mention level, are limited by two key
factors: they do not make use of recently-proposed context-dependent
embeddings, and are trained on fixed context windows. They are therefore
sensitive to window size selection and are unable to incorporate the context of
the entire document. In light of these drawbacks we propose to incorporate
context using transformer-based embeddings for a mention-level model, and an
end-to-end model using a Bi-GRU to remove the dependency on window size. An
extensive ablative study demonstrates the effectiveness of contextualised
embeddings for mention-level models and the competitiveness of our end-to-end
model for entity typing.
- Abstract(参考訳): Entity Typing(ET)は、コーパス内のすべてのエンティティの意味型を特定するプロセスである。
名前付きエンティティ認識とは対照的に、文の各トークンはゼロまたは1つのクラスラベルでラベル付けされ、etは1つ以上のクラスラベルで各エンティティの参照をラベル付けする。
既存のエンティティ型付けモデルは、参照レベルで動作し、最近提案されたコンテキスト依存の埋め込みを使用しず、固定されたコンテキストウィンドウでトレーニングされる。
したがって、それらはウィンドウサイズ選択に敏感であり、ドキュメント全体のコンテキストを取り込むことができない。
これらの欠点を考慮し, 参照レベルモデルに対するトランスフォーマーベースの埋め込みと, Bi-GRU を用いたエンドツーエンドモデルを用いて, ウィンドウサイズ依存の除去を提案する。
広範囲にわたるアブレーション研究は、参照レベルのモデルに対する文脈的埋め込みの有効性とエンティティ型付けのためのエンドツーエンドモデルの競争性を示している。
関連論文リスト
- Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - Entity Type Prediction Leveraging Graph Walks and Entity Descriptions [4.147346416230273]
textitGRANDは、RDF2vecの異なるグラフウォーク戦略とテキストエンティティ記述を利用したエンティティ型付けの新しいアプローチである。
提案手法は,細粒度クラスと粗粒度クラスの両方において,KGにおけるエンティティ型付けのためのベンチマークデータセットDBpediaとFIGERのベースラインアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-07-28T13:56:55Z) - Few-Shot Fine-Grained Entity Typing with Automatic Label Interpretation
and Instance Generation [36.541309948222306]
各エンティティタイプに対して,アノテーション付きエンティティ参照が付与される場合,FET(Fall-shot Fine-fine Entity Typing)の問題について検討する。
そこで本稿では,(1) エンティティ型ラベル解釈モジュールが,少数ショットインスタンスとラベル階層を併用することで,タイプラベルと語彙の関連付けを自動的に学習し,(2) 型ベースのコンテキスト化インスタンス生成器は,与えられたインスタンスに基づいて新しいインスタンスを生成して,より一般化のためにトレーニングセットを拡大する,という,2つのモジュールからなる新しいFETフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-28T04:05:40Z) - UniRE: A Unified Label Space for Entity Relation Extraction [67.53850477281058]
合同エンティティ関係抽出モデルでは、2つのサブタスクに対して2つの分離ラベル空間を設定する。
この設定は、エンティティとリレーション間の情報相互作用を妨げる可能性があると我々は主張する。
本研究では,2つのサブタスクのラベル空間における異なる処理を除去することを提案する。
論文 参考訳(メタデータ) (2021-07-09T08:09:37Z) - Improving Entity Linking through Semantic Reinforced Entity Embeddings [16.868791358905916]
そこで本稿では, コンテキスト共通性の学習を容易にするため, 実体埋め込みに微粒な意味情報を注入する手法を提案する。
エンティティの埋め込みに基づいて、エンティティリンクにおける最先端のパフォーマンスを新たに達成しました。
論文 参考訳(メタデータ) (2021-06-16T00:27:56Z) - Autoregressive Entity Retrieval [55.38027440347138]
エンティティは、知識の表現と集約の方法の中心にあります。
クエリが与えられたエンティティを検索できることは、エンティティリンクやオープンドメインの質問応答のような知識集約的なタスクに基本となる。
本稿では,自己回帰方式でトークン・バイ・トークンを左から右に生成し,エンティティを検索する最初のシステムであるGENREを提案する。
論文 参考訳(メタデータ) (2020-10-02T10:13:31Z) - GRIT: Generative Role-filler Transformers for Document-level Event
Entity Extraction [134.5580003327839]
本稿では、文書レベルでコンテキストをモデル化するための生成トランスフォーマーベースのエンコーダデコーダフレームワーク(GRIT)を紹介する。
我々は,MUC-4データセットに対する我々のアプローチを評価し,我々のモデルが先行作業よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-08-21T01:07:36Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z) - Fine-Grained Named Entity Typing over Distantly Supervised Data Based on
Refined Representations [16.30478830298353]
Fine-Grained Named Entity Typing (FG-NET) は自然言語処理(NLP)の鍵となるコンポーネントである
本稿では,コーパスレベルの文脈的手がかりをエンド分類に先立ち,ノイズの多い参照表現を洗練させるエッジ重み付き注意グラフ畳み込みネットワークを提案する。
実験により,提案モデルではマクロf1とマイクロf1の相対スコアが10.2%,マクロf1が8.3%であった。
論文 参考訳(メタデータ) (2020-04-07T17:26:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。