論文の概要: NameRec*: Highly Accurate and Fine-grained Person Name Recognition
- arxiv url: http://arxiv.org/abs/2103.11360v1
- Date: Sun, 21 Mar 2021 10:35:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:42:04.931284
- Title: NameRec*: Highly Accurate and Fine-grained Person Name Recognition
- Title(参考訳): NameRec*: 高精度できめ細かい人物名認識
- Authors: Rui Zhang, Yimeng Dai, Shijie Liu
- Abstract要約: 人名認識のためのCogNN(Co-guided Neural Network)を提案する。
CogNNは、名前形式の文内コンテキストと豊富な訓練信号を完全に探求する。
また,重なり合う入力プロセッサを用いたマルチ推論オーバーラップBERTモデル(NameRec*)を提案する。
- 参考スコア(独自算出の注目度): 11.43547342030705
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Person names are essential entities in the Named Entity Recognition (NER)
task. Traditional NER models have good performance in recognising well-formed
person names from text with consistent and complete syntax, such as news
articles. However, user-generated documents such as academic homepages and
articles in online forums may contain lots of free-form text with incomplete
syntax and person names in various forms. To address person name recognition in
this context, we propose a fine-grained annotation scheme based on
anthroponymy. To take full advantage of the fine-grained annotations, we
propose a Co-guided Neural Network (CogNN) for person name recognition. CogNN
fully explore the intra-sentence context and rich training signals of name
forms. However, the inter-sentence context and implicit relations, which are
extremely essential for recognizing person names in long documents, are not
captured. To address this issue, we propose a Multi-inference Overlapped BERT
Model (NameRec*) through an overlapped input processor, and an inter-sentence
encoder with bidirectional overlapped contextual embedding learning and
multiple inference mechanisms. NameRec* takes full advantage of inter-sentence
context in long documents, while loses advantage for short documents without
too much inter-sentence context. To derive benefit from different documents
with diverse abundance of context, we further propose an advanced Adaptive
Multi-inference Overlapping BERT Model (Ada-NameRec*) to dynamically adjust the
inter-sentence overlapping ratio to different documents. We conduct extensive
experiments to demonstrate the superiority of the proposed methods on both
academic homepages and news articles.
- Abstract(参考訳): 人物名は、名前付きエンティティ認識(NER)タスクにおいて必須のエンティティである。
従来のNERモデルは、ニュース記事のような一貫性のある完全な構文を持つテキストから、よくできた人物名を認識するのに優れた性能を持つ。
しかし、学術ホームページやオンラインフォーラムの記事などのユーザ生成文書には、不完全な構文と様々な形式の人名を含む自由形式のテキストが多数含まれている可能性がある。
この文脈で人名認識に対処するために,人類学に基づく微粒なアノテーションスキームを提案する。
粒度の細かいアノテーションを最大限に活用するために,人名認識のためのコグナーニューラルネットワーク(CogNN)を提案する。
CogNNは、名前形式の文内コンテキストと豊富な訓練信号を完全に探求する。
しかし、長い文書で人物名を認識するのに極めて不可欠である間関係や暗黙の関係は捉えられていない。
この問題に対処するために,重ね合わせ入力プロセッサによるマルチリファレンス重なりbertモデル(namerec*)と,双方向重ね合わせコンテキスト埋め込み学習と複数の推論機構を備えた相互エンコーダを提案する。
NameRec*は、長いドキュメントのインターセレンスコンテキストを最大限に活用する一方で、インターセレンスコンテキストをあまり必要とせずにショートドキュメントのアドバンテージを失う。
多様な文脈を持つ異なる文書から利益を得るため、我々はさらに、異なる文書に対する相互関係の重なり比を動的に調整する高度な適応型マルチ会議重なりbertモデル(ada-namerec*)を提案する。
学術ホームページとニュース記事の両方において,提案手法の優越性を示すため,広範な実験を行った。
関連論文リスト
- Multicultural Name Recognition For Previously Unseen Names [65.268245109828]
本論文は、人名の認識を改善することを目的としており、それは、誰かが生まれたり、名前を変えたりする際にも、成長できる多様なカテゴリーである。
私は103か国の名前を見て、モデルが異なる文化の名前でどれだけうまく機能するかを比較します。
文字入力と単語入力を組み合わせたモデルの方が単語のみのモデルより優れており,従来のNERモデルと比較して精度が向上する可能性がある。
論文 参考訳(メタデータ) (2024-01-23T17:58:38Z) - Language Models As Semantic Indexers [80.76133595275728]
生成言語モデルを用いてセマンティックIDを学習するための自己教師型フレームワークLMINDEXERを紹介する。
本稿では, 逐次離散表現を生成可能なセマンティックインデクサを導入することで, シーケンシャルなシーケンシャルIDの課題に対処する。
学習したセマンティックインデクサは、レコメンデーションや検索など、さまざまな下流タスクを容易にすることができる。
論文 参考訳(メタデータ) (2023-10-11T18:56:15Z) - Disambiguation of Company names via Deep Recurrent Networks [101.90357454833845]
企業名文字列の埋め込みである教師付き学習を通じて,Siamese LSTM Network を抽出する手法を提案する。
私たちは、ラベル付けされるサンプルを優先するActive Learningアプローチが、より効率的な全体的な学習パイプラインをもたらす方法を分析します。
論文 参考訳(メタデータ) (2023-03-07T15:07:57Z) - DetCLIP: Dictionary-Enriched Visual-Concept Paralleled Pre-training for
Open-world Detection [118.36746273425354]
本稿では,デザインされた概念辞書から知識の豊かさを生かして,オープンワールド検出のための並列視覚概念事前学習手法を提案する。
概念をそれらの記述で豊かにすることにより、オープンドメイン学習を促進するために、さまざまな概念間の関係を明確に構築する。
提案フレームワークは、例えばLVISデータセット上で、強力なゼロショット検出性能を示し、私たちのDetCLIP-TはGLIP-Tを9.9%向上させ、レアカテゴリで13.5%改善した。
論文 参考訳(メタデータ) (2022-09-20T02:01:01Z) - The Fellowship of the Authors: Disambiguating Names from Social Network
Context [2.3605348648054454]
各エンティティに関する広範なテキスト記述を持つオーソリティリストは、欠落しており、曖昧な名前のエンティティである。
BERTをベースとした参照表現と,さまざまなグラフ誘導戦略を組み合わせて,教師付きクラスタ推論手法と教師なしクラスタ推論手法を実験する。
ドメイン内言語モデルの事前学習は,特により大きなコーパスに対して,参照表現を大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2022-08-31T21:51:55Z) - WCL-BBCD: A Contrastive Learning and Knowledge Graph Approach to Named
Entity Recognition [15.446770390648874]
WCL-BBCD (Word Contrastive Learning with BERT-BiLSTM-CRF-DBpedia)を提案する。
モデルはまずテキスト中の文ペアを訓練し、コサイン類似性により文ペア内の単語間の類似度を計算し、その類似性を通じて名前付きエンティティ認識タスクに使用されるBERTモデルを微調整する。
最後に、単語短縮による認識を緩和するため、認識結果を知識グラフなどの事前知識と組み合わせて補正する。
論文 参考訳(メタデータ) (2022-03-14T08:29:58Z) - Document Domain Randomization for Deep Learning Document Layout
Extraction [37.97092983885967]
文書領域のランダム化(DDR)は,図式化された擬似紙ページのみにトレーニングされた畳み込みニューラルネットワーク(CNN)の転送に成功した最初の例である。
DDRは、興味のあるランダム化されたテキストと非テキストの内容をモデル化することで、擬似文書ページをレンダリングする。
高忠実度意味情報はセマンティッククラスをラベル付けする必要はないが、列車とテスト間のスタイルミスマッチはモデルの精度を低下させる可能性がある。
論文 参考訳(メタデータ) (2021-05-20T19:16:04Z) - R$^2$-Net: Relation of Relation Learning Network for Sentence Semantic
Matching [58.72111690643359]
文意味マッチングのための関係学習ネットワーク(R2-Net)を提案する。
最初にBERTを使用して、グローバルな視点から入力文をエンコードします。
次に、cnnベースのエンコーダは、ローカルな視点からキーワードやフレーズ情報をキャプチャするように設計されている。
関係情報抽出にラベルを十分に活用するために,関係分類タスクの自己教師付き関係性を導入する。
論文 参考訳(メタデータ) (2020-12-16T13:11:30Z) - Pairwise Learning for Name Disambiguation in Large-Scale Heterogeneous
Academic Networks [81.00481125272098]
本稿では,MA-PairRNN(Multi-view Attention-based Pairwise Recurrent Neural Network)を提案する。
MA-PairRNNは、不均一グラフ埋め込み学習とペアワイズ類似学習をフレームワークに統合する。
実世界の2つのデータセットの結果から、我々のフレームワークは名前の曖昧さに対するパフォーマンスを著しく一貫した改善をしていることがわかる。
論文 参考訳(メタデータ) (2020-08-30T06:08:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。