論文の概要: Self-attention-based BiGRU and capsule network for named entity
recognition
- arxiv url: http://arxiv.org/abs/2002.00735v1
- Date: Thu, 30 Jan 2020 21:51:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 12:12:54.712662
- Title: Self-attention-based BiGRU and capsule network for named entity
recognition
- Title(参考訳): 名前付きエンティティ認識のためのセルフアテンションに基づくbigruとカプセルネットワーク
- Authors: Jianfeng Deng and Lianglun Cheng and Zhuowei Wang
- Abstract要約: NERのための自己注意型双方向ゲートリカレントユニット(BiGRU)とカプセルネットワーク(CapsNet)を提案する。
BiGRUはシーケンスコンテキストの特徴をキャプチャするために使用され、BiGRUの隠蔽層が捉えた情報に異なるフォーカスを与える自己認識機構が提案されている。
2つのデータセット上でモデルの認識性能を評価する。
- 参考スコア(独自算出の注目度): 1.8348489257164355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named entity recognition(NER) is one of the tasks of natural language
processing(NLP). In view of the problem that the traditional character
representation ability is weak and the neural network method is unable to
capture the important sequence information. An self-attention-based
bidirectional gated recurrent unit(BiGRU) and capsule network(CapsNet) for NER
is proposed. This model generates character vectors through bidirectional
encoder representation of transformers(BERT) pre-trained model. BiGRU is used
to capture sequence context features, and self-attention mechanism is proposed
to give different focus on the information captured by hidden layer of BiGRU.
Finally, we propose to use CapsNet for entity recognition. We evaluated the
recognition performance of the model on two datasets. Experimental results show
that the model has better performance without relying on external dictionary
information.
- Abstract(参考訳): 名前付きエンティティ認識(NER)は自然言語処理(NLP)のタスクの一つである。
従来の文字表現能力が弱く、ニューラルネットワーク手法では重要なシーケンス情報をキャプチャできないという問題を考慮している。
NERのための自己注意型双方向ゲートリカレントユニット(BiGRU)とカプセルネットワーク(CapsNet)を提案する。
このモデルは、変換器(BERT)事前学習モデルの双方向エンコーダ表現により文字ベクトルを生成する。
BiGRUはシーケンスコンテキストの特徴をキャプチャするために使用され、BiGRUの隠蔽層が捉えた情報に異なるフォーカスを与える自己認識機構が提案されている。
最後に、エンティティ認識にCapsNetを使うことを提案する。
モデルの認識性能を2つのデータセットで評価した。
実験の結果,モデルの性能は外部辞書情報に頼らずに向上した。
関連論文リスト
- CBGT-Net: A Neuromimetic Architecture for Robust Classification of Streaming Data [0.994853090657971]
CBGT-Netは、観測されたデータのストリームから証拠の十分な基準が達成された後、出力を生成することを学習する。
CBGT-Netは,単一パッチからの分類を訓練したモデルと比較して,精度と堅牢性の向上を図っている。
論文 参考訳(メタデータ) (2024-03-24T00:46:40Z) - With a Little Help from your own Past: Prototypical Memory Networks for
Image Captioning [47.96387857237473]
我々は、他のトレーニングサンプルを処理しながら得られたアクティベーションに注意を向けるネットワークを考案した。
私たちのメモリは、プロトタイプベクトルの定義を通じて過去のキーと値の分布をモデル化します。
本研究では,エンコーダ・デコーダ変換器の性能を3.7 CIDErポイント向上できることを示す。
論文 参考訳(メタデータ) (2023-08-23T18:53:00Z) - Brain Network Transformer [13.239896897835191]
脳ネットワーク解析のためのトランスフォーマーモデルについて検討する。
データの特徴によって駆動される私たちは、脳ネットワークを、一定のサイズと順序のノードを持つグラフとしてモデル化します。
我々は、ABIDEの大規模脳ネットワークデータセットとして唯一公開されているものについて、評価パイプラインを再標準化する。
論文 参考訳(メタデータ) (2022-10-13T02:30:06Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Research on Dual Channel News Headline Classification Based on ERNIE
Pre-training Model [13.222137788045416]
提案モデルは従来のニューラルネットワークモデルと比較して,ニュース見出し分類の精度,精度,F1スコアを改善する。
大規模データ量でのニュース見出しテキストのマルチクラス化アプリケーションでは、うまく機能する。
論文 参考訳(メタデータ) (2022-02-14T10:44:12Z) - Auto-Parsing Network for Image Captioning and Visual Question Answering [101.77688388554097]
本稿では,入力データの隠れ木構造を発見し,活用するための自動パーシングネットワーク(APN)を提案する。
具体的には、各自己注意層における注意操作によってパラメータ化された確率的グラフモデル(PGM)を課し、スパース仮定を組み込む。
論文 参考訳(メタデータ) (2021-08-24T08:14:35Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Scribble-Supervised Semantic Segmentation by Random Walk on Neural
Representation and Self-Supervision on Neural Eigenspace [10.603823180750446]
本研究の目的は, 補助情報や中間操作を使わずに, ラベルを直接スクリブルすることで, セマンティックセグメンテーションを実現することである。
我々は、ランダムウォークによる神経表現への拡散と、自己スーパービジョンによる神経固有空間への一貫性を課す。
その結果,提案手法の優位性が示され,フルラベルの教師付き手法に匹敵する結果が得られた。
論文 参考訳(メタデータ) (2020-11-11T08:22:25Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z) - Learn to Predict Sets Using Feed-Forward Neural Networks [63.91494644881925]
本稿では、ディープフィードフォワードニューラルネットワークを用いた設定予測の課題に対処する。
未知の置換と基数を持つ集合を予測するための新しい手法を提案する。
関連視覚問題に対する集合定式化の有効性を実証する。
論文 参考訳(メタデータ) (2020-01-30T01:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。