論文の概要: HUJI-KU at MRP~2020: Two Transition-based Neural Parsers
- arxiv url: http://arxiv.org/abs/2010.05710v1
- Date: Mon, 12 Oct 2020 13:41:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 05:58:43.533636
- Title: HUJI-KU at MRP~2020: Two Transition-based Neural Parsers
- Title(参考訳): huji-ku at mrp~2020: 2つのトランジッションベースのニューラルパーサ
- Authors: Ofir Arviv, Ruixiang Cui, Daniel Hershcovich
- Abstract要約: 計算言語学習会議(CoNLL)におけるMRP(Cross-Framework Meaning Parsing)における共有タスクへのHUJI-KUシステムの適用について述べる。
TUPAとHIT-SCIRをそれぞれ,2019 MRP共有タスクにおけるベースラインシステムと入賞システムに採用した。
- 参考スコア(独自算出の注目度): 7.081264564269638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the HUJI-KU system submission to the shared task on
Cross-Framework Meaning Representation Parsing (MRP) at the 2020 Conference for
Computational Language Learning (CoNLL), employing TUPA and the HIT-SCIR
parser, which were, respectively, the baseline system and winning system in the
2019 MRP shared task. Both are transition-based parsers using BERT
contextualized embeddings. We generalized TUPA to support the newly-added MRP
frameworks and languages, and experimented with multitask learning with the
HIT-SCIR parser. We reached 4th place in both the cross-framework and
cross-lingual tracks.
- Abstract(参考訳): 本稿では,2019 MRP共有タスクのベースラインシステムと入賞システムであるTUPAとHIT-SCIRパーサを併用した,2020 Conference for Computational Language Learning (CoNLL)におけるMRP(Cross-Framework Meaning Representation Parsing)の共有タスクに対するHUJI-KUシステムの適用について述べる。
どちらもbertコンテキスト埋め込みを使ったトランジッションベースのパーサである。
我々は,新たに追加されたMPPフレームワークと言語をサポートするためにTUPAを一般化し,HIT-SCIRパーサを用いたマルチタスク学習実験を行った。
クロスフレームとクロスランガルのトラックで4位に達しました。
関連論文リスト
- A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - USTC-NELSLIP at SemEval-2023 Task 2: Statistical Construction and Dual
Adaptation of Gazetteer for Multilingual Complex NER [36.39635200544498]
本稿では,SemEval-2023 Task 2 Multilingual Complex Named Entity Recognition (MultiCoNER II)のためにUSTC-NELSLIPチームが開発したシステムについて述べる。
提案手法はWikidata で構築したガゼッタを用いて XLM-R に適用され,様々なトラックにまたがる高度な一般化能力を示す。
論文 参考訳(メタデータ) (2023-05-04T03:00:46Z) - HIT-SCIR at MMNLU-22: Consistency Regularization for Multilingual Spoken
Language Understanding [56.756090143062536]
本稿では,ハイブリッドデータ拡張戦略に基づく一貫性の正則化を提案する。
フルデータセットとゼロショット設定の両方で、MASSIVEデータセット上で実験を行う。
提案手法はインテント検出とスロット充足の両方の性能を向上させる。
論文 参考訳(メタデータ) (2023-01-05T11:21:15Z) - The JHU-Microsoft Submission for WMT21 Quality Estimation Shared Task [14.629380601429956]
本稿では,WMT 2021の品質評価共有タスクに対するJHU-Microsoft共同提案を提案する。
我々は,目標側の単語レベルの品質評価に焦点をあて,共有タスクのタスク2(後編集作業推定)にのみ参加する。
我々は,広く採用されているOpenKiwi-XLMベースラインと比較して,システムの競争力を示す。
論文 参考訳(メタデータ) (2021-09-17T19:13:31Z) - \'UFAL at MRP 2020: Permutation-invariant Semantic Parsing in PERIN [5.365579703864223]
PERINは文間セマンティック解析における新しい置換不変のアプローチである。
4つの言語にまたがる5つの異なるフレームワークで評価された。
論文 参考訳(メタデータ) (2020-11-02T05:47:08Z) - NEMO: Frequentist Inference Approach to Constrained Linguistic Typology
Feature Prediction in SIGTYP 2020 Shared Task [83.43738174234053]
タイプ的特徴間の相関関係を表現するために頻繁な推論を用い、この表現を用いて、個々の特徴を予測する単純なマルチクラス推定器を訓練する。
テスト言語149言語に対して,マイクロ平均精度0.66を達成できた。
論文 参考訳(メタデータ) (2020-10-12T19:25:43Z) - TransQuest at WMT2020: Sentence-Level Direct Assessment [14.403165053223395]
言語間変換に基づく簡単なQEフレームワークを提案する。
2つの異なるニューラルアーキテクチャの実装と評価に使用しています。
当社のアプローチは,WMT 2020の公式調査結果によると,すべての言語ペアにおいて,勝利のソリューションです。
論文 参考訳(メタデータ) (2020-10-11T18:53:05Z) - SJTU-NICT's Supervised and Unsupervised Neural Machine Translation
Systems for the WMT20 News Translation Task [111.91077204077817]
我々は英語・中国語・英語・ポーランド語・ドイツ語・アッパー・ソルビアンという3つの言語対の4つの翻訳指導に参加した。
言語ペアの異なる条件に基づいて、我々は多様なニューラルネットワーク翻訳(NMT)技術の実験を行った。
私たちの提出書では、主要なシステムは英語、中国語、ポーランド語、英語、ドイツ語から上セルビア語への翻訳の道順で第一位を獲得しました。
論文 参考訳(メタデータ) (2020-10-11T00:40:05Z) - WeChat Neural Machine Translation Systems for WMT20 [61.03013964996131]
本システムは,有効な変種とDTMTアーキテクチャを備えたTransformerをベースとしている。
実験では,データ選択,複数の合成データ生成手法,高度な微調整手法,自己視覚モデルアンサンブルを用いた。
制約のある中国語と英語のシステムでは36.9のケースセンシティブなBLEUスコアが得られます。
論文 参考訳(メタデータ) (2020-10-01T08:15:09Z) - On Learning Universal Representations Across Languages [37.555675157198145]
文レベルの表現を学習するための既存のアプローチを拡張し、言語間理解と生成の有効性を示す。
具体的には,複数の言語に分散した並列文の普遍表現を学習するための階層型コントラスト学習(HiCTL)手法を提案する。
我々は、XTREMEと機械翻訳という2つの難解な言語間タスクについて評価を行う。
論文 参考訳(メタデータ) (2020-07-31T10:58:39Z) - XGLUE: A New Benchmark Dataset for Cross-lingual Pre-training,
Understanding and Generation [100.09099800591822]
XGLUEは、大規模な言語間の事前トレーニングモデルのトレーニングに使用できる、新しいベンチマークデータセットである。
XGLUEは、自然言語理解と生成シナリオの両方をカバーする、11の多様化されたタスクを提供する。
論文 参考訳(メタデータ) (2020-04-03T07:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。