論文の概要: Semi-Supervised Neural System for Tagging, Parsing and Lematization
- arxiv url: http://arxiv.org/abs/2004.12450v1
- Date: Sun, 26 Apr 2020 18:29:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:26:34.320643
- Title: Semi-Supervised Neural System for Tagging, Parsing and Lematization
- Title(参考訳): タグ付け・パース・レマタイズのための半スーパービジョンニューラルネットワーク
- Authors: Piotr Rybak, Alina Wr\'oblewska
- Abstract要約: 本稿では,CoNLL 2018の多言語構文解析からユニバーサル依存関係への共有タスクであるICS PASシステムについて述べる。
このシステムは、BiLSTMネットワークによって抽出された特徴に基づいて、共同で訓練されたタグ、レムマタイザー、および依存性から構成される。
- 参考スコア(独自算出の注目度): 1.6752182911522522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the ICS PAS system which took part in CoNLL 2018 shared
task on Multilingual Parsing from Raw Text to Universal Dependencies. The
system consists of jointly trained tagger, lemmatizer, and dependency parser
which are based on features extracted by a biLSTM network. The system uses both
fully connected and dilated convolutional neural architectures. The novelty of
our approach is the use of an additional loss function, which reduces the
number of cycles in the predicted dependency graphs, and the use of
self-training to increase the system performance. The proposed system, i.e. ICS
PAS (Warszawa), ranked 3th/4th in the official evaluation obtaining the
following overall results: 73.02 (LAS), 60.25 (MLAS) and 64.44 (BLEX).
- Abstract(参考訳): 本稿では,CoNLL 2018の多言語構文解析からユニバーサル依存関係への共有タスクであるICS PASシステムについて述べる。
このシステムは、biLSTMネットワークによって抽出された特徴に基づいて、共同で訓練されたタグ、補間器、および依存性パーサから構成される。
このシステムは完全な接続と拡張された畳み込みニューラルアーキテクチャの両方を使用する。
我々のアプローチの目新しさは、予測された依存グラフのサイクル数を減らす追加の損失関数の使用と、システムパフォーマンスを向上させるために自己学習を使用することです。
提案システム,すなわちICS PAS (Warszawa) は73.02 (LAS), 60.25 (MLAS), 64.44 (BLEX) の3位/4位となった。
関連論文リスト
- MLCA-AVSR: Multi-Layer Cross Attention Fusion based Audio-Visual Speech Recognition [62.89464258519723]
異なるレベルのオーディオ/視覚エンコーダに融合することで、各モードの表現を促進する多層クロスアテンション融合に基づくAVSR手法を提案する。
提案手法は第1位システムを超え,新たなSOTA cpCERの29.13%をこのデータセット上に構築する。
論文 参考訳(メタデータ) (2024-01-07T08:59:32Z) - Heterogenous Memory Augmented Neural Networks [84.29338268789684]
ニューラルネットワークのための新しいヘテロジニアスメモリ拡張手法を提案する。
学習可能なメモリトークンをアテンション機構付きで導入することにより、膨大な計算オーバーヘッドを伴わずに性能を効果的に向上させることができる。
In-distriion (ID) と Out-of-distriion (OOD) の両方の条件下での様々な画像およびグラフベースのタスクに対するアプローチを示す。
論文 参考訳(メタデータ) (2023-10-17T01:05:28Z) - A Performance-Consistent and Computation-Efficient CNN System for
High-Quality Automated Brain Tumor Segmentation [1.2183405753834562]
CNNをベースとした完全自動脳-運動-隔離システムの開発研究は急速に進展している。
実際に適用可能なシステムには、優れた処理品質と信頼性が不可欠です。
提案方式のCNNは2つの特徴を持つユニークな構造を持つ。
論文 参考訳(メタデータ) (2022-05-02T22:10:36Z) - Deliberation Model for On-Device Spoken Language Understanding [69.5587671262691]
我々は、エンドツーエンド(E2E)音声言語理解(SLU)に対する新しい議論に基づくアプローチを提案する。
提案手法は,自然言語から合成音声訓練に移行する際の劣化を著しく低減できることを示す。
論文 参考訳(メタデータ) (2022-04-04T23:48:01Z) - Investigations on Speech Recognition Systems for Low-Resource Dialectal
Arabic-English Code-Switching Speech [32.426525641734344]
コードスイッチによるエジプト・アラビア英語自動音声認識(ASR)に関する研究について述べる。
DNNベースのハイブリッドモデルとTransformerベースのエンドツーエンドモデルを用いて,ASRシステムを構築した。
両システムの出力を組み合わせることで,認識を向上できることを示す。
論文 参考訳(メタデータ) (2021-08-29T17:23:30Z) - Low Resource German ASR with Untranscribed Data Spoken by Non-native
Children -- INTERSPEECH 2021 Shared Task SPAPL System [19.435571932141364]
本稿では,ドイツ語における非Native Children's Speechの音声認識における共有課題であるInterSPEECH 2021 ChallengeのSPAPLシステムについて述べる。
子ども向けのドイツのASRシステムを開発するために,5時間の転写データと60時間の非転写データを提供する。
書き起こしデータのトレーニングのために,音声発話における長周期非音声区間の影響を軽減するために,非音声状態判別損失(NSDL)を提案する。
本システムは,評価データに対して39.68%の単語誤り率(WER)を達成する。
論文 参考訳(メタデータ) (2021-06-18T07:36:26Z) - SpanNer: Named Entity Re-/Recognition as Span Prediction [62.66148736099347]
スパン予測モデルは名前付きエンティティ認識に使用される。
我々は11のデータセットに154のシステムを実験的に実装し、3つの言語をカバーした。
私たちのモデルはExplainaBoardプラットフォームにデプロイされました。
論文 参考訳(メタデータ) (2021-06-01T17:11:42Z) - Coreference Resolution System for Indonesian Text with Mention Pair
Method and Singleton Exclusion using Convolutional Neural Network [0.0]
インドネシア語テキストの参照ペア法による新しいコア参照解決システムを提案する。
語彙的・統語的特徴に加えて,言及する単語や文脈の表現を学習するために,単語埋め込みを用いてCNNに供給する。
提案システムは最先端システムより優れている。
論文 参考訳(メタデータ) (2020-09-11T22:21:19Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - Jointly Trained Transformers models for Spoken Language Translation [2.3886615435250302]
この研究は、補助的な損失としてASR目標を持つSLTシステムを訓練し、両方のネットワークは神経隠れ表現を介して接続される。
このアーキテクチャはBLEUから36.8から44.5に改善されている。
すべての実験はハウ2コーパスを用いた英語・ポルトガル語音声翻訳タスクで報告される。
論文 参考訳(メタデータ) (2020-04-25T11:28:39Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。