論文の概要: Semantic Tagging with LSTM-CRF
- arxiv url: http://arxiv.org/abs/2301.12206v1
- Date: Sat, 28 Jan 2023 14:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 18:29:31.394374
- Title: Semantic Tagging with LSTM-CRF
- Title(参考訳): LSTM-CRFを用いた意味的タグ付け
- Authors: Farshad Noravesh
- Abstract要約: ユニバーサルセマンティックタグデータセットのセマンティックタグ付けには,LSTM-CRFとBERT-LSTM-CRFという2つのモデルが提案されている。
実験によると、第1のモデルは収束しやすく、第2のモデルはBERTの埋め込みを利用し、収束するのに長い時間がかかる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the present paper, two models are presented namely LSTM-CRF and
BERT-LSTM-CRF for semantic tagging of universal semantic tag dataset. The
experiments show that the first model is much easier to converge while the
second model that leverages BERT embedding, takes a long time to converge and
needs a big dataset for semtagging to be effective.
- Abstract(参考訳): 本稿では,共通意味タグデータセットのセマンティックタグ付けのためのLSTM-CRFとBERT-LSTM-CRFの2つのモデルを示す。
実験により、第一のモデルは、bert埋め込みを利用する第二のモデルは、収束するのに長い時間がかかり、セムタグが効果的になるために大きなデータセットが必要であるのに対して、より収束しやすいことが示されている。
関連論文リスト
- Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z) - Bidirectional LSTM-CRF Attention-based Model for Chinese Word
Segmentation [2.3991565023534087]
中国語単語セグメンテーションのための双方向LSTM-CRFアテンションベースモデルを提案する。
我々のモデルは、他のニューラルネットワークによるベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2021-05-20T11:46:53Z) - Explore BiLSTM-CRF-Based Models for Open Relation Extraction [4.438901038410558]
我々は、双方向LSTM-CRF(BiLSTM-CRF)ニューラルネットワークと異なる文脈の単語埋め込み法に基づく複数のOpen REモデルを開発した。
タグ付け方式, 単語埋め込み方式, BiLSTM-CRF ネットワークの最適組み合わせを選択し, 複数関係文から抽出する顕著な能力を持つオープンREモデルを実現する。
論文 参考訳(メタデータ) (2021-04-26T03:37:22Z) - Data Augmentation for Abstractive Query-Focused Multi-Document
Summarization [129.96147867496205]
2つのQMDSトレーニングデータセットを提示し,2つのデータ拡張手法を用いて構築する。
これらの2つのデータセットは相補的な性質を持ち、すなわちQMDSCNNは実際のサマリを持つが、クエリはシミュレートされる。
組み合わせたデータセット上にエンドツーエンドのニューラルネットワークモデルを構築し、DUCデータセットに最新の転送結果をもたらします。
論文 参考訳(メタデータ) (2021-03-02T16:57:01Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - Parallel Rescoring with Transformer for Streaming On-Device Speech
Recognition [36.86458309520383]
2パスモデルは、デバイス上での音声認識において、より良い速度品質のトレードオフを提供する。
第2パスモデルは、従来のモデルを上回るエンドツーエンドモデルの品質改善において重要な役割を果たす。
本研究では,第2パスリスコラーのLSTM層をTransformer層に置き換えることを検討した。
論文 参考訳(メタデータ) (2020-08-30T05:17:31Z) - Sentiment Analysis Using Simplified Long Short-term Memory Recurrent
Neural Networks [1.5146765382501612]
GOPディベートTwitterデータセット上で感情分析を行う。
学習を高速化し、計算コストと時間を短縮するために、LSTMモデルのスリムバージョンを6つの異なるパラメータで削減する手法を提案する。
論文 参考訳(メタデータ) (2020-05-08T12:50:10Z) - High-Accuracy and Low-Latency Speech Recognition with Two-Head
Contextual Layer Trajectory LSTM Model [46.34788932277904]
我々は,高精度かつ低遅延自動音声認識のための従来のハイブリッドLSTM音響モデルの改良を行った。
高い精度を達成するために、時間的モデリングとターゲット分類タスクを分離する文脈層トラジェクトリLSTM(cltLSTM)を用いる。
シーケンスレベルの教師学生学習による学習戦略をさらに改善する。
論文 参考訳(メタデータ) (2020-03-17T00:52:11Z) - Depth-Adaptive Graph Recurrent Network for Text Classification [71.20237659479703]
S-LSTM(Sentence-State LSTM)は、高効率なグラフリカレントネットワークである。
そこで本研究では,S-LSTMの深度適応機構を提案する。
論文 参考訳(メタデータ) (2020-02-29T03:09:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。