論文の概要: Hierarchical Transformer Model for Scientific Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2203.14710v1
- Date: Mon, 28 Mar 2022 12:59:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 14:53:24.066390
- Title: Hierarchical Transformer Model for Scientific Named Entity Recognition
- Title(参考訳): 科学的名前付きエンティティ認識のための階層変換器モデル
- Authors: Urchade Zaratiana and Pierre Holat and Nadi Tomeh and Thierry Charnois
- Abstract要約: 名前付きエンティティ認識のためのシンプルで効果的なアプローチを提案する。
提案手法の主な考え方は、入力サブワードシーケンスをBERTのような事前学習された変換器で符号化することである。
科学的NERのための3つのベンチマークデータセットに対するアプローチを評価した。
- 参考スコア(独自算出の注目度): 0.20646127669654832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of Named Entity Recognition (NER) is an important component of many
natural language processing systems, such as relation extraction and knowledge
graph construction. In this work, we present a simple and effective approach
for Named Entity Recognition. The main idea of our approach is to encode the
input subword sequence with a pre-trained transformer such as BERT, and then,
instead of directly classifying the word labels, another layer of transformer
is added to the subword representation to better encode the word-level
interaction. We evaluate our approach on three benchmark datasets for
scientific NER, particularly in the computer science and biomedical domains.
Experimental results show that our model outperforms the current
state-of-the-art on SciERC and TDM datasets without requiring external
resources or specific data augmentation. Code is available at
\url{https://github.com/urchade/HNER}.
- Abstract(参考訳): 名前付きエンティティ認識(NER)タスクは、関係抽出や知識グラフ構築など、多くの自然言語処理システムにおいて重要なコンポーネントである。
本稿では,名前付きエンティティ認識のための単純かつ効果的なアプローチを提案する。
提案手法の主な考え方は、入力サブワードシーケンスをBERTなどの事前訓練された変換器でエンコードし、単語ラベルを直接分類する代わりに、単語レベルの相互作用をよりよくエンコードするために、サブワード表現にトランスフォーマーの別の層を追加することである。
我々は科学NERのための3つのベンチマークデータセット、特にコンピュータ科学と生物医学領域におけるアプローチを評価した。
実験結果から,SciERC や TDM のデータセットでは,外部リソースやデータ拡張を必要とせず,現在の状況よりも優れた結果が得られた。
コードは \url{https://github.com/urchade/HNER} で入手できる。
関連論文リスト
- Named Entity Recognition for Address Extraction in Speech-to-Text
Transcriptions Using Synthetic Data [0.0]
本稿では,BERTアーキテクチャによる双方向表現に基づく名前付きエンティティ認識(NER)モデルの構築手法を提案する。
このNERモデルは、音声からテキストへの書き起こしから取得したデータからアドレス部分を抽出する。
合成データのみを訓練したNERモデルの性能を,小さな実データを用いて評価した。
論文 参考訳(メタデータ) (2024-02-08T10:29:11Z) - Disambiguation of Company names via Deep Recurrent Networks [101.90357454833845]
企業名文字列の埋め込みである教師付き学習を通じて,Siamese LSTM Network を抽出する手法を提案する。
私たちは、ラベル付けされるサンプルを優先するActive Learningアプローチが、より効率的な全体的な学習パイプラインをもたらす方法を分析します。
論文 参考訳(メタデータ) (2023-03-07T15:07:57Z) - Optimizing Bi-Encoder for Named Entity Recognition via Contrastive
Learning [80.36076044023581]
名前付きエンティティ認識(NER)のための効率的なバイエンコーダフレームワークを提案する。
我々はNERを、エンティティ参照のベクトル表現とその型との類似性を最大化する計量学習問題とみなす。
NERのこのバイエンコーダの定式化における大きな課題は、エンティティの言及から非エンゲージスを分離することにある。
論文 参考訳(メタデータ) (2022-08-30T23:19:04Z) - Label Semantics for Few Shot Named Entity Recognition [68.01364012546402]
名前付きエンティティ認識におけるショットラーニングの問題について検討する。
我々は,ラベル名中の意味情報を,モデルに付加的な信号を与え,よりリッチな事前情報を与える手段として活用する。
本モデルは,第1エンコーダによって計算された名前付きエンティティの表現と,第2エンコーダによって計算されたラベル表現とを一致させることを学習する。
論文 参考訳(メタデータ) (2022-03-16T23:21:05Z) - Investigation on Data Adaptation Techniques for Neural Named Entity
Recognition [51.88382864759973]
一般的な実践は、大きなモノリンガルなラベルなしコーパスを使用することである。
もう一つの一般的なテクニックは、オリジナルのラベル付きデータから合成データを作成することである。
本研究では,これらの2つの手法が3つの異なる名前付きエンティティ認識タスクの性能に与える影響について検討する。
論文 参考訳(メタデータ) (2021-10-12T11:06:03Z) - BERT got a Date: Introducing Transformers to Temporal Tagging [4.651578365545765]
本稿では,RoBERTa言語モデルを用いたトランスフォーマー・エンコーダ・デコーダモデルを提案する。
我々のモデルは、特に稀なクラスにおいて、時間的タグ付けや型分類において、過去の研究を上回っている。
論文 参考訳(メタデータ) (2021-09-30T08:54:21Z) - QUEACO: Borrowing Treasures from Weakly-labeled Behavior Data for Query
Attribute Value Extraction [57.56700153507383]
本稿では,QUEACOというEコマース検索におけるクエリ属性値の統一抽出システムを提案する。
NER フェーズでは、QUEACO は教師-学生ネットワークを採用し、強くラベル付けされたデータに基づいてトレーニングされた教師ネットワークが擬似ラベルを生成する。
AVN フェーズでは、弱いラベル付けされたクエリ・ツー・アトリビュート・ビヘイビア・データを利用して、クエリーから表層属性値の正規化を行い、製品から標準形式へと変換する。
論文 参考訳(メタデータ) (2021-08-19T03:24:23Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - An Analysis of Simple Data Augmentation for Named Entity Recognition [21.013836715832564]
名前付きエンティティ認識のためのデータ拡張の設計と比較を行う。
簡単な拡張により、リカレントモデルとトランスフォーマーモデルの両方のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-10-22T13:21:03Z) - Neural Entity Linking on Technical Service Tickets [1.3621712165154805]
ニューラルアプローチは、約20%のトップ-1精度の改善とともに、ハンドコードされたエンティティより優れ、補完することを示す。
また,簡単な文単位の符号化 (Bi-Encoder) によって,高速かつ効率的に検索できることを示す。
論文 参考訳(メタデータ) (2020-05-15T15:47:02Z) - TNT-KID: Transformer-based Neural Tagger for Keyword Identification [7.91883337742071]
本稿では,キーワード識別のための Transformer-based Neural Tagger (TNT-KID) というキーワード識別アルゴリズムを提案する。
特定のタスクにトランスフォーマーアーキテクチャを適用し、ドメイン固有のコーパスで事前学習する言語モデルを活用することにより、キーワード抽出に対する教師なしと教師なしの両方のアプローチの欠陥を克服することができる。
論文 参考訳(メタデータ) (2020-03-20T09:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。