論文の概要: ASTRAL: Adversarial Trained LSTM-CNN for Named Entity Recognition
- arxiv url: http://arxiv.org/abs/2009.01041v1
- Date: Wed, 2 Sep 2020 13:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 18:36:21.574973
- Title: ASTRAL: Adversarial Trained LSTM-CNN for Named Entity Recognition
- Title(参考訳): ASTRAL: 名前付きエンティティ認識のための逆学習LSTM-CNN
- Authors: Jiuniu Wang, Wenjia Xu, Xingyu Fu, Guangluan Xu, Yirong Wu
- Abstract要約: 本稿では,モデル構造とトレーニングプロセスの両方から,現在のNER法を改善するためのLSTM-CNN(ASTRAL)システムを提案する。
提案システムは,CoNLL-03,OntoNotes 5.0,WNUT-17の3つのベンチマークで評価し,最先端の結果を得た。
- 参考スコア(独自算出の注目度): 16.43239147870092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named Entity Recognition (NER) is a challenging task that extracts named
entities from unstructured text data, including news, articles, social
comments, etc. The NER system has been studied for decades. Recently, the
development of Deep Neural Networks and the progress of pre-trained word
embedding have become a driving force for NER. Under such circumstances, how to
make full use of the information extracted by word embedding requires more
in-depth research. In this paper, we propose an Adversarial Trained LSTM-CNN
(ASTRAL) system to improve the current NER method from both the model structure
and the training process. In order to make use of the spatial information
between adjacent words, Gated-CNN is introduced to fuse the information of
adjacent words. Besides, a specific Adversarial training method is proposed to
deal with the overfitting problem in NER. We add perturbation to variables in
the network during the training process, making the variables more diverse,
improving the generalization and robustness of the model. Our model is
evaluated on three benchmarks, CoNLL-03, OntoNotes 5.0, and WNUT-17, achieving
state-of-the-art results. Ablation study and case study also show that our
system can converge faster and is less prone to overfitting.
- Abstract(参考訳): 名前付きエンティティ認識(NER)は、ニュース、記事、ソーシャルコメントなどを含む構造化されていないテキストデータから名前付きエンティティを抽出する難しいタスクである。
NERシステムは何十年にもわたって研究されてきた。
近年,Deep Neural Networks の発展と事前学習語埋め込みの進展が NER の原動力となっている。
このような状況下では、単語埋め込みによって抽出された情報をフル活用するには、より詳細な研究が必要である。
本稿では,モデル構造とトレーニングプロセスの両方から,現在のNER法を改善するための適応型LSTM-CNN(ASTRAL)システムを提案する。
隣接語間の空間情報を利用するために、隣接語の情報を融合するためにGated-CNNを導入する。
また,NERにおけるオーバーフィッティング問題に対処するために,特定の適応学習手法を提案する。
トレーニングプロセス中にネットワーク内の変数に摂動を追加し、変数をより多様化させ、モデルの一般化と堅牢性を改善します。
本モデルは,CoNLL-03,OntoNotes 5.0,WNUT-17の3つのベンチマークで評価し,最先端の結果を得た。
アブレーション研究とケーススタディは、システムがより速く収束し、過剰に収まる可能性が低いことを示している。
関連論文リスト
- Supervised Gradual Machine Learning for Aspect Category Detection [0.9857683394266679]
アスペクトカテゴリー検出(ACD)は、あるレビュー文の中で暗黙的かつ明示的な側面を識別することを目的としている。
本稿では,Deep Neural Networks (DNN) と Gradual Machine Learning (GML) を教師付き環境で組み合わせることで,ACDタスクに取り組む新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-08T07:21:46Z) - In-Context Learning for Few-Shot Nested Named Entity Recognition [53.55310639969833]
数発のネストネストNERの設定に有効で革新的なICLフレームワークを導入する。
我々は、新しい実演選択機構であるEnDe retrieverを考案し、ICLプロンプトを改善する。
EnDe検索では,意味的類似性,境界類似性,ラベル類似性という3種類の表現学習を行うために,コントラスト学習を用いる。
論文 参考訳(メタデータ) (2024-02-02T06:57:53Z) - Convolutional Dictionary Learning by End-To-End Training of Iterative
Neural Networks [3.6280929178575994]
本研究では,教師付きおよび物理情報を用いたオンライン畳み込み辞書学習アルゴリズムとして利用可能な INN を構築する。
提案手法は,従来の2つのモデルに依存しない訓練法よりも改善され,深い INN と比較して競争結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-09T12:15:38Z) - Nested Named Entity Recognition as Holistic Structure Parsing [92.8397338250383]
本研究は,文中の全入れ子NEを全体構造としてモデル化し,全体構造解析アルゴリズムを提案する。
実験により、我々のモデルは、最先端にアプローチしたり、あるいは達成したりするような、広く使われているベンチマークで有望な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-04-17T12:48:20Z) - Distantly-Supervised Named Entity Recognition with Noise-Robust Learning
and Language Model Augmented Self-Training [66.80558875393565]
遠距離ラベル付きデータのみを用いて、名前付きエンティティ認識(NER)モデルを訓練する際の課題について検討する。
本稿では,新しい損失関数と雑音ラベル除去ステップからなるノイズロスバスト学習手法を提案する。
提案手法は,既存の遠隔教師付きNERモデルよりも優れた性能を実現する。
論文 参考訳(メタデータ) (2021-09-10T17:19:56Z) - Empirical Study of Named Entity Recognition Performance Using
Distribution-aware Word Embedding [15.955385058787348]
そこで我々は,NERフレームワークにおける分散情報を利用するために,分散対応単語埋め込みを開発し,三つの異なる手法を実装した。
単語特異性が既存のNERメソッドに組み込まれれば、NERのパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-09-03T17:28:04Z) - Self-Supervised Learning of Event-Based Optical Flow with Spiking Neural
Networks [3.7384509727711923]
ニューロモルフィックコンピューティングの大きな課題は、従来の人工ニューラルネットワーク(ANN)の学習アルゴリズムがスパイクニューラルネットワーク(SNN)に直接転送されないことである。
本稿では,イベントベースカメラ入力からの光フロー推定における自己教師型学習問題に着目した。
提案するANNとSNNの性能は,自己教師型で訓練された現在の最先端のANNと同等であることを示す。
論文 参考訳(メタデータ) (2021-06-03T14:03:41Z) - A journey in ESN and LSTM visualisations on a language task [77.34726150561087]
我々は,CSL(Cross-Situationnal Learning)タスクでESNとLSTMを訓練した。
その結果, 性能比較, 内部力学解析, 潜伏空間の可視化の3種類が得られた。
論文 参考訳(メタデータ) (2020-12-03T08:32:01Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Exploring Pre-training with Alignments for RNN Transducer based
End-to-End Speech Recognition [39.497407288772386]
リカレントニューラルネットワークトランスデューサ(RNN-T)アーキテクチャは、エンドツーエンドの自動音声認識研究において、新たなトレンドとなっている。
本研究では、外部アライメントを活用してRNN-Tモデルをシードする。
エンコーダ事前学習(encoder pre-training)と全ネットワーク事前学習( whole-network pre-training)と呼ばれる2つの異なる事前学習ソリューションが検討されている。
論文 参考訳(メタデータ) (2020-05-01T19:00:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。