論文の概要: Qtrade AI at SemEval-2022 Task 11: An Unified Framework for Multilingual
NER Task
- arxiv url: http://arxiv.org/abs/2204.07459v1
- Date: Thu, 14 Apr 2022 07:51:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-18 14:43:52.621749
- Title: Qtrade AI at SemEval-2022 Task 11: An Unified Framework for Multilingual
NER Task
- Title(参考訳): SemEval-2022 Task 11におけるQtrade AI:多言語NERタスクのための統一フレームワーク
- Authors: Weichao Gan, Yuanping Lin, Guangbo Yu, Guimin Chen and Qian Ye
- Abstract要約: 本稿では,多言語トラック(サブタスク11)で3位,コードミキシングトラック(サブタスク12)で4位,中国語トラック(サブタスク9)で7位となるシステムについて述べる。
1)多言語NERタスクでは、単一言語または多言語NERタスクを容易に実行可能な統合フレームワーク、2)低リソースのコード混在NERタスクでは、複数の単純なデータ拡張メソッドを実装して、容易にデータセットを拡張できるフレームワーク、3)中国語タスクでは、中国語の語彙的意味、語彙的境界をキャプチャできるモデルを提案する。
- 参考スコア(独自算出の注目度): 10.167123492952694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes our system, which placed third in the Multilingual Track
(subtask 11), fourth in the Code-Mixed Track (subtask 12), and seventh in the
Chinese Track (subtask 9) in the SemEval 2022 Task 11: MultiCoNER Multilingual
Complex Named Entity Recognition. Our system's key contributions are as
follows: 1) For multilingual NER tasks, we offer an unified framework with
which one can easily execute single-language or multilingual NER tasks, 2) for
low-resource code-mixed NER task, one can easily enhance his or her dataset
through implementing several simple data augmentation methods and 3) for
Chinese tasks, we propose a model that can capture Chinese lexical semantic,
lexical border, and lexical graph structural information. Finally, our system
achieves macro-f1 scores of 77.66, 84.35, and 74.00 on subtasks 11, 12, and 9,
respectively, during the testing phase.
- Abstract(参考訳): 本稿では,多言語トラック(サブタスク11)で3位,コードミキシングトラック(サブタスク12)で4位,セムエスバル2022タスク11における中国語トラック(サブタスク9)で7位となったシステムについて述べる。
私たちのシステムの主な貢献は次のとおりです。
1)多言語NERタスクに対して,単一言語あるいは多言語NERタスクを容易に実行できる統一的なフレームワークを提供する。
2) 低リソースのコード混在NERタスクでは,複数の単純なデータ拡張メソッドを実装することで,データセットを容易に拡張することができる。
3) 中国語タスクに対しては,中国語の語彙意味,語彙境界,語彙グラフ構造情報を抽出できるモデルを提案する。
最後に,テスト段階では,サブタスク11,12,9において,77.66,84.35,74.00のマクロf1スコアを達成する。
関連論文リスト
- SemEval-2024 Task 8: Multidomain, Multimodel and Multilingual Machine-Generated Text Detection [68.858931667807]
Subtask Aは、テキストが人間によって書かれたか、機械によって生成されたかを決定するバイナリ分類タスクである。
サブタスクBは、テキストの正確なソースを検出し、それが人間によって書かれたか、特定のLCMによって生成されたかを認識する。
Subtask Cは、著者が人間から機械へ遷移するテキスト内の変化点を特定することを目的としている。
論文 参考訳(メタデータ) (2024-04-22T13:56:07Z) - PetKaz at SemEval-2024 Task 8: Can Linguistics Capture the Specifics of LLM-generated Text? [4.463184061618504]
我々はSemEval-2024タスク8「マルチジェネレータ、マルチドメイン、ブラックボックスマシン生成テキスト検出」を提出する。
我々のアプローチは、RoBERTaベースからの埋め込みと多様性機能の組み合わせに依存し、再サンプリングされたトレーニングセットを使用する。
その結果,本手法は未知のモデルや領域にまたがって一般化可能であり,精度は0.91であることがわかった。
論文 参考訳(メタデータ) (2024-04-08T13:05:02Z) - MasonTigers at SemEval-2024 Task 1: An Ensemble Approach for Semantic Textual Relatedness [5.91695168183101]
本稿では,SemEval-2024 Task 1 - Semantic Textual RelatednessのMasonTigersエントリについて述べる。
このタスクには、教師なし(Track A)、教師なし(Track B)、14言語にわたる言語横断(Track C)アプローチが含まれる。
我々のアプローチは、トラックAで11位から21位、トラックBで1位から8位、トラックCで5位から12位までランク付けした。
論文 参考訳(メタデータ) (2024-03-22T06:47:42Z) - UMBCLU at SemEval-2024 Task 1A and 1C: Semantic Textual Relatedness with and without machine translation [0.09208007322096534]
SemEval-2024 Task 1の目的は、2つの文間の意味的テキスト関連性を特定するモデルを開発することである。
教師付きおよび言語間設定のための2つのSTRモデル、textitTranSem$ と $textitFineSem$ を開発します。
論文 参考訳(メタデータ) (2024-02-20T05:46:29Z) - UniverSLU: Universal Spoken Language Understanding for Diverse Tasks with Natural Language Instructions [64.50935101415776]
我々は,様々な音声言語理解(SLU)タスクを共同で行う単一モデルを構築した。
我々は17のデータセットと9の言語にまたがる12の音声分類とシーケンス生成タスクタイプに対して,1つのマルチタスク学習モデル"UniverSLU"の有効性を実証した。
論文 参考訳(メタデータ) (2023-10-04T17:10:23Z) - Bridging Cross-Lingual Gaps During Leveraging the Multilingual
Sequence-to-Sequence Pretraining for Text Generation [80.16548523140025]
プレトレインとファインチューンの間のギャップを埋めるために、コードスイッチングの復元タスクを追加して、バニラプレトレイン-ファインチューンパイプラインを拡張します。
提案手法は,言語間文表現距離を狭くし,簡単な計算コストで低周波語翻訳を改善する。
論文 参考訳(メタデータ) (2022-04-16T16:08:38Z) - Efficient Dialogue State Tracking by Masked Hierarchical Transformer [0.3441021278275805]
我々は、リッチリソース言語によるトレーニングセットと低リソース言語によるテストセットを備えた言語間ダイアログ状態トラッカーを構築した。
スロット操作分類タスクと状態追跡タスクを共同学習する手法を定式化する。
論文 参考訳(メタデータ) (2021-06-28T07:35:49Z) - N-LTP: An Open-source Neural Language Technology Platform for Chinese [68.58732970171747]
textttN-は、中国の6つの基本的なNLPタスクをサポートする、オープンソースのニューラルネットワークテクノロジプラットフォームである。
textttN-は、中国のタスク間で共有知識をキャプチャする利点がある共有事前学習モデルを使用することで、マルチタスクフレームワークを採用する。
論文 参考訳(メタデータ) (2020-09-24T11:45:39Z) - CoSDA-ML: Multi-Lingual Code-Switching Data Augmentation for Zero-Shot
Cross-Lingual NLP [68.2650714613869]
我々は,mBERTを微調整するための多言語コードスイッチングデータを生成するためのデータ拡張フレームワークを提案する。
既存の研究と比較すると,本手法は訓練にバイリンガル文を頼らず,複数の対象言語に対して1つの学習プロセスしか必要としない。
論文 参考訳(メタデータ) (2020-06-11T13:15:59Z) - XGLUE: A New Benchmark Dataset for Cross-lingual Pre-training,
Understanding and Generation [100.09099800591822]
XGLUEは、大規模な言語間の事前トレーニングモデルのトレーニングに使用できる、新しいベンチマークデータセットである。
XGLUEは、自然言語理解と生成シナリオの両方をカバーする、11の多様化されたタスクを提供する。
論文 参考訳(メタデータ) (2020-04-03T07:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。