論文の概要: An Intellectual Property Entity Recognition Method Based on Transformer
and Technological Word Information
- arxiv url: http://arxiv.org/abs/2203.10717v1
- Date: Mon, 21 Mar 2022 03:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 14:30:49.337941
- Title: An Intellectual Property Entity Recognition Method Based on Transformer
and Technological Word Information
- Title(参考訳): 変圧器と技術単語情報に基づく知的特性エンティティ認識手法
- Authors: Yuhui Wang, Junping Du, Yingxia Shao
- Abstract要約: 本稿では,トランスフォーマーと技術単語情報に基づく知的財産の抽出手法を提案する。
相対位置符号化を導入するトランスフォーマーエンコーダは、テキストの深い意味情報を学ぶために使用される。
パブリックデータセットとアノテートされた特許データセットの実験結果は,エンティティ認識の精度を向上させることを示す。
- 参考スコア(独自算出の注目度): 23.64426782192688
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Patent texts contain a large amount of entity information. Through named
entity recognition, intellectual property entity information containing key
information can be extracted from it, helping researchers to understand the
patent content faster. Therefore, it is difficult for existing named entity
extraction methods to make full use of the semantic information at the word
level brought about by professional vocabulary changes. This paper proposes a
method for extracting intellectual property entities based on Transformer and
technical word information , and provides accurate word vector representation
in combination with the BERT language method. In the process of word vector
generation, the technical word information extracted by IDCNN is added to
improve the understanding of intellectual property entities Representation
ability. Finally, the Transformer encoder that introduces relative position
encoding is used to learn the deep semantic information of the text from the
sequence of word vectors, and realize entity label prediction. Experimental
results on public datasets and annotated patent datasets show that the method
improves the accuracy of entity recognition.
- Abstract(参考訳): 特許文書には大量のエンティティ情報が含まれている。
名前付きエンティティ認識により、キー情報を含む知的財産エンティティ情報を抽出し、研究者がより早く特許内容を理解するのに役立つ。
そのため、専門的な語彙変化による単語レベルでの意味情報を十分に活用することは、既存の名前付きエンティティ抽出法では困難である。
本稿では,トランスフォーマーと技術用語情報に基づく知的財産の抽出手法を提案し,BERT言語手法と組み合わせて正確な単語ベクトル表現を提供する。
単語ベクトル生成の過程で、IDCNNによって抽出された技術的単語情報が追加され、知的財産エンティティ表現能力の理解が向上する。
最後に、相対的な位置符号化を導入するトランスエンコーダを使用して、単語ベクトルのシーケンスからテキストの深い意味情報を学び、エンティティラベル予測を実現する。
パブリックデータセットとアノテートされた特許データセットの実験結果は,エンティティ認識の精度を向上させることを示す。
関連論文リスト
- Learning Robust Named Entity Recognizers From Noisy Data With Retrieval Augmentation [67.89838237013078]
名前付きエンティティ認識(NER)モデルは、しばしばノイズの多い入力に悩まされる。
ノイズの多いテキストとそのNERラベルのみを利用できる、より現実的な設定を提案する。
我々は、推論中にテキストを取得することなく、堅牢なNERを改善するマルチビュートレーニングフレームワークを採用している。
論文 参考訳(メタデータ) (2024-07-26T07:30:41Z) - FecTek: Enhancing Term Weight in Lexicon-Based Retrieval with Feature Context and Term-level Knowledge [54.61068946420894]
FEature Context と TErm レベルの知識モジュールを導入して,革新的な手法を提案する。
項重みの特徴コンテキスト表現を効果的に強化するために、FCM(Feature Context Module)が導入された。
また,用語レベルの知識を効果的に活用し,用語重みのモデル化プロセスをインテリジェントに導くための用語レベルの知識誘導モジュール(TKGM)を開発した。
論文 参考訳(メタデータ) (2024-04-18T12:58:36Z) - Entity Alignment Method of Science and Technology Patent based on Graph
Convolution Network and Information Fusion [17.021664156393765]
ほとんどのエンティティアライメント手法は、グラフ構造の埋め込みを得るためにグラフニューラルネットワークのみを使用する。
本稿では,科学技術特許情報融合のためのグラフ畳み込みネットワークに基づくエンティティアライメント手法を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:04:55Z) - Hierarchical Transformer Model for Scientific Named Entity Recognition [0.20646127669654832]
名前付きエンティティ認識のためのシンプルで効果的なアプローチを提案する。
提案手法の主な考え方は、入力サブワードシーケンスをBERTのような事前学習された変換器で符号化することである。
科学的NERのための3つのベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-03-28T12:59:06Z) - KARL-Trans-NER: Knowledge Aware Representation Learning for Named Entity
Recognition using Transformers [0.0]
名前付きエンティティ認識(NER)のための知識認識表現学習(KARL)ネットワークを提案する。
KARLは、ファクトトリプレットとして表される大きな知識ベースを利用し、それらをコンテキストに変換し、内部に存在する必須情報を抽出して、特徴拡張のためのコンテキスト化三重項表現を生成するトランスフォーマーに基づいている。
実験結果から,KARL を用いた拡張は NER システムの性能を大幅に向上させ,既存の 3 つの NER データセット(CoNLL 2003,CoNLL++,OntoNotes v5 など)の文献上のアプローチよりもはるかに優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2021-11-30T14:29:33Z) - Large Scale Substitution-based Word Sense Induction [48.49573297876054]
本稿では,事前学習されたマスキング言語モデル(MLM)に基づく単語センス誘導手法を提案する。
その結果、コーパス由来の感覚インベントリに基づいて感覚タグ付けされ、各感覚が指示語に関連付けられているコーパスとなる。
本手法を用いた英語ウィキペディアの評価では,Babelfy などの WSD 手法と比較しても,誘導された感覚とインスタンスごとの感覚代入の両方が高品質であることがわかった。
論文 参考訳(メタデータ) (2021-10-14T19:40:37Z) - Empirical Study of Named Entity Recognition Performance Using
Distribution-aware Word Embedding [15.955385058787348]
そこで我々は,NERフレームワークにおける分散情報を利用するために,分散対応単語埋め込みを開発し,三つの異なる手法を実装した。
単語特異性が既存のNERメソッドに組み込まれれば、NERのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-09-03T17:28:04Z) - KnowPrompt: Knowledge-aware Prompt-tuning with Synergistic Optimization
for Relation Extraction [111.74812895391672]
シナジスティック最適化(KnowPrompt)を用いた知識認識型Promptチューニング手法を提案する。
関係ラベルに含まれる潜在知識をインジェクトして,学習可能な仮想型語と解答語で構築する。
論文 参考訳(メタデータ) (2021-04-15T17:57:43Z) - Dependency Parsing based Semantic Representation Learning with Graph
Neural Network for Enhancing Expressiveness of Text-to-Speech [49.05471750563229]
文の依存性関係を考慮したグラフニューラルネットワークに基づく意味表現学習手法を提案する。
提案手法は,LJSpeech と Bilzzard Challenge 2013 のデータセットにおいて,バニラBERT の機能をベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2021-04-14T13:09:51Z) - Improving Named Entity Recognition with Attentive Ensemble of Syntactic
Information [36.03316058182617]
名前付きエンティティ認識(NER)は、セマンティック・セマンティック・セマンティック・プロパティに非常に敏感である。
本稿では,暗黙のアンサンブルによって異なるタイプの構文情報を活用することにより,NERを改善する。
6つの英語と中国語のベンチマークデータセットの実験結果から,提案手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-10-29T10:25:17Z) - Named Entity Recognition for Social Media Texts with Semantic
Augmentation [70.44281443975554]
名前付きエンティティ認識のための既存のアプローチは、短いテキストと非公式テキストで実行される場合、データ空間の問題に悩まされる。
そこで我々は,NER によるソーシャルメディアテキストに対するニューラルベースアプローチを提案し,ローカルテキストと拡張セマンティクスの両方を考慮に入れた。
論文 参考訳(メタデータ) (2020-10-29T10:06:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。