論文の概要: Named Entity Recognition in the Style of Object Detection
- arxiv url: http://arxiv.org/abs/2101.11122v1
- Date: Tue, 26 Jan 2021 22:47:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-14 00:26:21.275093
- Title: Named Entity Recognition in the Style of Object Detection
- Title(参考訳): オブジェクト検出スタイルにおける名前付きエンティティ認識
- Authors: Bing Li
- Abstract要約: 名前付き実体認識(NER)の二段階法を提案する。
まず、地域提案ネットワークが地域候補を生成し、2段階モデルがエンティティを識別して分類し、最終的な予測を行う。
我々は、ネストした名前付きエンティティ認識タスクace2005とgeniaでモデルをテストし、それぞれ85.6$%$と76.8$%$のf1スコアを得た。
- 参考スコア(独自算出の注目度): 5.228551526328475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we propose a two-stage method for named entity recognition
(NER), especially for nested NER. We borrowed the idea from the two-stage
Object Detection in computer vision and the way how they construct the loss
function. First, a region proposal network generates region candidates and then
a second-stage model discriminates and classifies the entity and makes the
final prediction. We also designed a special loss function for the second-stage
training that predicts the entityness and entity type at the same time. The
model is built on top of pretrained BERT encoders, and we tried both BERT base
and BERT large models. For experiments, we first applied it to flat NER tasks
such as CoNLL2003 and OntoNotes 5.0 and got comparable results with traditional
NER models using sequence labeling methodology. We then tested the model on the
nested named entity recognition task ACE2005 and Genia, and got F1 score of
85.6$\%$ and 76.8$\%$ respectively. In terms of the second-stage training, we
found that adding extra randomly selected regions plays an important role in
improving the precision. We also did error profiling to better evaluate the
performance of the model in different circumstances for potential improvements
in the future.
- Abstract(参考訳): 本研究では,ネストされたNERにおいて,名前付きエンティティ認識(NER)のための2段階の手法を提案する。
コンピュータビジョンにおける2段階オブジェクト検出のアイデアと、損失関数の構築方法からアイデアを借用した。
まず、地域提案ネットワークが地域候補を生成し、2段階モデルがエンティティを識別して分類し、最終的な予測を行う。
また、エンティティ性とエンティティタイプを同時に予測する第2段階トレーニングのための特別な損失関数も設計した。
このモデルは、事前訓練されたBERTエンコーダ上に構築され、BERTベースとBERT大モデルの両方を試した。
実験では,まずCoNLL2003 や OntoNotes 5.0 などの平らな NER タスクに適用し,シーケンシャルラベリング手法を用いて従来の NER モデルと同等の結果を得た。
次に、ネストした名前付きエンティティ認識タスクace2005とgeniaでモデルをテストし、それぞれ85.6$\%$と76.8$\%$のf1スコアを得た。
第2段階のトレーニングでは,ランダムに選択された領域の追加が精度向上に重要な役割を果たしていることがわかった。
また、将来の潜在的な改善のために、異なる状況下でモデルのパフォーマンスを評価するためにエラープロファイリングを行いました。
関連論文リスト
- Hybrid Multi-stage Decoding for Few-shot NER with Entity-aware Contrastive Learning [32.62763647036567]
名前付きエンティティ認識は、ラベル付けされたいくつかの例に基づいて、新しいタイプの名前付きエンティティを識別できる。
MsFNER(Entity-Aware Contrastive Learning)を用いたFew-shot NERのためのハイブリッド多段復号法を提案する。
MsFNERは一般的なNERを、エンティティスパン検出とエンティティ分類の2つのステージに分割する。
論文 参考訳(メタデータ) (2024-04-10T12:31:09Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Multi-task Transformer with Relation-attention and Type-attention for
Named Entity Recognition [35.44123819012004]
名前付きエンティティ認識(NER)は自然言語処理において重要な研究課題である。
本稿では,エンティティ境界検出タスクを名前付きエンティティ認識タスクに組み込むマルチタスク変換器を提案する。
論文 参考訳(メタデータ) (2023-03-20T05:11:22Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - RockNER: A Simple Method to Create Adversarial Examples for Evaluating
the Robustness of Named Entity Recognition Models [32.806292167848156]
名前付きエンティティ認識モデルのロバスト性を評価するためにRockNERを提案する。
ターゲットエンティティを、Wikidataの同じセマンティッククラスの他のエンティティに置き換える。
文脈レベルでは、事前訓練された言語モデルを用いて単語置換を生成する。
論文 参考訳(メタデータ) (2021-09-12T21:30:21Z) - A Sequence-to-Set Network for Nested Named Entity Recognition [38.05786148160635]
ネストNERのための新しいシーケンス・ツー・セットニューラルネットワークを提案する。
我々は、非自己回帰デコーダを使用して、1回のパスで最終的なエンティティセットを予測する。
実験により, ネストした3つのNERコーパスに対して, 提案モデルが最先端となることを示す。
論文 参考訳(メタデータ) (2021-05-19T03:10:04Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z) - BOND: BERT-Assisted Open-Domain Named Entity Recognition with Distant
Supervision [49.42215511723874]
我々は,NERモデルの予測性能を改善するための新しい計算フレームワーク,BONDを提案する。
具体的には,2段階の学習アルゴリズムを提案する。第1段階では,遠隔ラベルを用いて,事前学習された言語モデルをNERタスクに適用する。
第2段階では,遠隔ラベルを廃止し,モデル性能をさらに向上するための自己学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-28T04:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。