論文の概要: AMU-EURANOVA at CASE 2021 Task 1: Assessing the stability of
multilingual BERT
- arxiv url: http://arxiv.org/abs/2106.14625v1
- Date: Thu, 10 Jun 2021 07:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-04 19:38:13.462872
- Title: AMU-EURANOVA at CASE 2021 Task 1: Assessing the stability of
multilingual BERT
- Title(参考訳): amu-euranova at case 2021 task 1: the stability of multilingual bert
- Authors: L\'eo Bouscarrat (LIS, TALEP, QARMA), Antoine Bonnefoy, C\'ecile
Capponi (LIS, QARMA), Carlos Ramisch (LIS, TALEP)
- Abstract要約: サブタスク4、イベント情報抽出に焦点を当てた。
このサブタスクには小さなトレーニングデータセットがあり、このサブタスクを解決するために多言語BERTを微調整しました。
データセットの不安定性問題を調査し、緩和を試みた。
- 参考スコア(独自算出の注目度): 0.879504058268139
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explains our participation in task 1 of the CASE 2021 shared task.
This task is about multilingual event extraction from news. We focused on
sub-task 4, event information extraction. This sub-task has a small training
dataset and we fine-tuned a multilingual BERT to solve this sub-task. We
studied the instability problem on the dataset and tried to mitigate it.
- Abstract(参考訳): 本稿では,CASE 2021共有タスクのタスク1への参加について説明する。
この課題はニュースからの多言語イベント抽出である。
サブタスク4とイベント情報抽出に注目した。
このサブタスクには小さなトレーニングデータセットがあり、このサブタスクを解決するために多言語BERTを微調整しました。
我々は,データセットの不安定性問題を調査し,その軽減を試みた。
関連論文リスト
- AAdaM at SemEval-2024 Task 1: Augmentation and Adaptation for Multilingual Semantic Textual Relatedness [16.896143197472114]
本稿では,アフリカとアジアの言語に対するセマンティックテキスト関連性(SemEval-2024 Task 1: Semantic Textual Relatedness)について述べる。
本稿では,限られたトレーニングデータの低リソース化問題に対処するために,機械翻訳によるデータ拡張を提案する。
我々のシステムは、サブタスクA(教師付き学習)とサブタスクC(言語間の移動)の両方において、すべてのチームの中で最善を尽くします。
論文 参考訳(メタデータ) (2024-04-01T21:21:15Z) - Rethinking and Improving Multi-task Learning for End-to-end Speech
Translation [51.713683037303035]
異なる時間とモジュールを考慮したタスク間の整合性について検討する。
テキストエンコーダは、主にクロスモーダル変換を容易にするが、音声におけるノイズの存在は、テキストと音声表現の一貫性を妨げる。
長さと表現の差を軽減し,モーダルギャップを橋渡しする,STタスクのための改良型マルチタスク学習(IMTL)手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T08:48:46Z) - Findings of the WMT 2022 Shared Task on Translation Suggestion [63.457874930232926]
We report the results of the first edition of the WMT shared task on Translation Suggestion。
このタスクは、機械翻訳(MT)によって生成された文書全体に対して、特定の単語やフレーズの代替手段を提供することを目的としている。
2つのサブタスク、すなわち単純翻訳提案と暗示付き翻訳提案で構成されている。
論文 参考訳(メタデータ) (2022-11-30T03:48:36Z) - Extended Multilingual Protest News Detection -- Shared Task 1, CASE 2021
and 2022 [0.6390904258458897]
ケース2022ワークショップは、ケース2021のテストデータを予測するために開発されたシステムに関する報告を受け入れている。
ケース2022の参加者が提出した最良のシステムは、ゼロショット設定で新しい言語に対して79.71から84.06 F1-macroを達成している。
論文 参考訳(メタデータ) (2022-11-21T11:23:01Z) - MEE: A Novel Multilingual Event Extraction Dataset [62.80569691825534]
Event extractは、イベント参照とその引数をテキストから認識することを目的としている。
モデルトレーニングと評価のための高品質な多言語EEデータセットの欠如が主な障害となっている。
本稿では,8言語で50万以上のイベントを参照するアノテーションを提供する新しい多言語イベント抽出データセット(EE)を提案する。
論文 参考訳(メタデータ) (2022-11-11T02:01:41Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Handshakes AI Research at CASE 2021 Task 1: Exploring different
approaches for multilingual tasks [0.22940141855172036]
ケース2021共有タスク1の目的は,多言語環境下での社会・政治・危機事象情報の検出と分類である。
提案書にはすべてのサブタスクのエントリが含まれており,得られたスコアが調査結果の妥当性を検証した。
論文 参考訳(メタデータ) (2021-10-29T07:58:49Z) - Zero-Shot Information Extraction as a Unified Text-to-Triple Translation [56.01830747416606]
我々は、テキストから3つの翻訳フレームワークに一連の情報抽出タスクを投入した。
タスク固有の入力テキストと出力トリプルの変換としてタスクを形式化する。
本稿では,オープン情報抽出におけるゼロショット性能について検討する。
論文 参考訳(メタデータ) (2021-09-23T06:54:19Z) - Facebook AI's WMT20 News Translation Task Submission [69.92594751788403]
本稿では、Facebook AIによるWMT20共有ニュース翻訳タスクの提出について述べる。
資源設定の低さに着目し,タミル語-英語とイヌクティトゥット語-英語の2つの言語ペアに参加する。
我々は、利用可能なデータをすべて活用し、ターゲットのニュースドメインにシステムを適用するという、2つの主要な戦略を用いて、低リソース問題にアプローチする。
論文 参考訳(メタデータ) (2020-11-16T21:49:00Z) - Hierarchical Multitask Learning Approach for BERT [0.36525095710982913]
BERTは、マスク付き言語モデル(masked LM)と次の文予測(NSP)である2つのタスクを解くことで埋め込みを学習する
BERT事前学習には階層型マルチタスク学習アプローチを採用する。
この結果から,タスク階層を事前学習に組み込むことで,組込み性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-10-17T09:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。