論文の概要: ProtagonistTagger -- a Tool for Entity Linkage of Persons in Texts from
Various Languages and Domains
- arxiv url: http://arxiv.org/abs/2203.06746v1
- Date: Sun, 13 Mar 2022 19:50:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:48:50.710644
- Title: ProtagonistTagger -- a Tool for Entity Linkage of Persons in Texts from
Various Languages and Domains
- Title(参考訳): protagonisttagger - さまざまな言語やドメインのテキスト中の人物のエンティティリンクのためのツール
- Authors: Weronika Lajewska and Anna Wroblewska
- Abstract要約: NER と NED をテキストで表すツール - protagonistTagger を提示する。
このツールは、古典的なイギリスの小説やポーランドのインターネットニュースから抽出されたテキストでテストされた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named entities recognition (NER) and disambiguation (NED) can add semantic
context to the recognized named entities in texts. Named entity linkage in
texts, regardless of a domain, provides links between the entities mentioned in
unstructured texts and individual instances of real-world objects. In this
poster, we present a tool - protagonistTagger - for person NER and NED in
texts. The tool was tested on texts extracted from classic English novels and
Polish Internet news. The tool's performance (both precision and recall)
fluctuates between 78% and even 88%.
- Abstract(参考訳): 名前付きエンティティ認識(NER)と曖昧化(NED)は、認識された名前付きエンティティに意味的コンテキストを追加することができる。
ドメインに関係なく、名前付きエンティティリンクは、非構造化テキストで言及されるエンティティと、現実世界のオブジェクトの個々のインスタンスとの間のリンクを提供する。
本ポスターでは,NER と NED をテキストで表すツールである protagonistTagger を提示する。
このツールは、古典英語の小説やポーランドのインターネットニュースから抽出されたテキストでテストされた。
ツールのパフォーマンス(精度とリコールの両方)は78%から88%の間で変動する。
関連論文リスト
- Learning Robust Named Entity Recognizers From Noisy Data With Retrieval Augmentation [67.89838237013078]
名前付きエンティティ認識(NER)モデルは、しばしばノイズの多い入力に悩まされる。
ノイズの多いテキストとそのNERラベルのみを利用できる、より現実的な設定を提案する。
我々は、推論中にテキストを取得することなく、堅牢なNERを改善するマルチビュートレーニングフレームワークを採用している。
論文 参考訳(メタデータ) (2024-07-26T07:30:41Z) - Hypergraph based Understanding for Document Semantic Entity Recognition [65.84258776834524]
我々は,ハイパグラフアテンションを利用したハイパグラフアテンション文書セマンティックエンティティ認識フレームワークHGAを構築し,エンティティ境界とエンティティカテゴリを同時に重視する。
FUNSD, CORD, XFUNDIE で得られた結果は,本手法が意味的エンティティ認識タスクの性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2024-07-09T14:35:49Z) - Towards Unified Multi-granularity Text Detection with Interactive Attention [56.79437272168507]
Detect Any Text"は、シーンテキストの検出、レイアウト分析、ドキュメントページの検出を結合的なエンドツーエンドモデルに統合する高度なパラダイムである。
DATにおける重要なイノベーションは、テキストインスタンスの表現学習を大幅に強化する、粒度横断型アテンションモジュールである。
テストによると、DATは様々なテキスト関連ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-05-30T07:25:23Z) - Hypertext Entity Extraction in Webpage [112.56734676713721]
textbfMoE ベースの textbfEntity textbfExtraction textbfFramework (textitMoEEF) を導入する。
また、textitHEEDにおけるハイパーテキスト機能の有効性と、textitMoEEFにおけるモデルコンポーネントについて分析する。
論文 参考訳(メタデータ) (2024-03-04T03:21:40Z) - Comparative Analysis of Named Entity Recognition in the Dungeons and
Dragons Domain [0.3108011671896571]
7つのダンジョンズ・アンド・ドラゴンズ(D&D)アドベンチャーブックの10種類の名前付きエンティティ認識(NER)モデルを分析し,ドメイン固有のパフォーマンスを評価する。
以上の結果から,Frair,Trankit,SpacyはD&Dコンテキストにおける名前の特定において他者よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-09-29T12:09:36Z) - Augmenting text for spoken language understanding with Large Language
Models [13.240782495441275]
対応する音声を使わずに書き起こし構文解析データ(未ペアテキスト)の使い方を示す。
実験の結果、既存のドメインと新しいドメインの未ペアテキストは、絶対的エクサクトマッチ(EM)において、それぞれ2%と30%の性能を向上させることがわかった。
本稿では,既存のドメインや新しいドメインに対する未ペアテキストを生成するために,LLM(Large Language Models)を提案する。
論文 参考訳(メタデータ) (2023-09-17T22:25:34Z) - TextFormer: A Query-based End-to-End Text Spotter with Mixed Supervision [61.186488081379]
Transformerアーキテクチャを用いた問合せベースのエンドツーエンドテキストスポッターであるTextFormerを提案する。
TextFormerは、画像エンコーダとテキストデコーダの上に構築され、マルチタスクモデリングのための共同セマンティック理解を学ぶ。
分類、セグメンテーション、認識のブランチの相互訓練と最適化を可能にし、より深い特徴共有をもたらす。
論文 参考訳(メタデータ) (2023-06-06T03:37:41Z) - Entity-to-Text based Data Augmentation for various Named Entity
Recognition Tasks [96.52649319569535]
本稿では,Entity-to-Textベースの新しいデータ拡張手法であるEnTDAを提案する。
テキスト生成過程における多様性を高めるために,多様性ビーム探索を導入する。
論文 参考訳(メタデータ) (2022-10-19T07:24:40Z) - Razmecheno: Named Entity Recognition from Digital Archive of Diaries
"Prozhito" [1.4823641127537543]
本稿では,ロシア語のプロジェクトProzhitoの日記テキストから収集した新しいデータセット"Razmecheno"を作成することを目的とする。
ラズメチーノは1331の文と14119のトークンで構成されており、ペレストロイカ時代に書かれた日記から採集されている。
論文 参考訳(メタデータ) (2022-01-24T23:06:01Z) - LUKE: Deep Contextualized Entity Representations with Entity-aware
Self-attention [37.111204321059084]
両方向変換器に基づく単語と実体の事前学習した文脈表現を提案する。
我々のモデルは、BERTのマスキング言語モデルに基づく新しい事前訓練タスクを用いて訓練される。
また,変換器の自己認識機構の拡張である自己認識機構を提案する。
論文 参考訳(メタデータ) (2020-10-02T15:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。