論文の概要: Overview of CTC 2021: Chinese Text Correction for Native Speakers
- arxiv url: http://arxiv.org/abs/2208.05681v1
- Date: Thu, 11 Aug 2022 07:58:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 13:13:40.532482
- Title: Overview of CTC 2021: Chinese Text Correction for Native Speakers
- Title(参考訳): ctc 2021の概要 : 中国語母語話者に対するテキスト訂正
- Authors: Honghong Zhao, Baoxin Wang, Dayong Wu, Wanxiang Che, Zhigang Chen,
Shijin Wang
- Abstract要約: ネイティブ話者のための中国語テキスト修正タスクであるCTC 2021の概要を述べる。
本稿では,タスク定義とトレーニング用データ,評価について詳述する。
このタスクのために収集および注釈付けされたデータセットが、この研究領域における将来の発展を促進および促進することを願っている。
- 参考スコア(独自算出の注目度): 46.98707360111395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an overview of the CTC 2021, a Chinese text
correction task for native speakers. We give detailed descriptions of the task
definition and the data for training as well as evaluation. We also summarize
the approaches investigated by the participants of this task. We hope the data
sets collected and annotated for this task can facilitate and expedite future
development in this research area. Therefore, the pseudo training data, gold
standards validation data, and entire leaderboard is publicly available online
at https://destwang.github.io/CTC2021-explorer/.
- Abstract(参考訳): 本稿では,母語話者のための中国語テキスト修正タスクであるCTC 2021の概要について述べる。
本稿では,タスク定義とトレーニング用データ,評価について詳述する。
また,本課題の参加者によるアプローチについてもまとめる。
このタスクのために収集および注釈付けされたデータセットが、この研究領域における将来の発展を促進および促進することを願っている。
したがって、疑似トレーニングデータ、ゴールド標準検証データ、リーダーボード全体はhttps://destwang.github.io/ctc2021-explorer/で公開されている。
関連論文リスト
- Mavericks at NADI 2023 Shared Task: Unravelling Regional Nuances through
Dialect Identification using Transformer-based Approach [0.0]
我々は,国レベルの方言識別を扱うサブタスク1の方法論を強調した。
このタスクは、マルチクラス分類問題に対する18の方言を含むTwitterデータセット(TWT-2023)を使用する。
テストデータセットでF1スコア76.65 (11位)を達成した。
論文 参考訳(メタデータ) (2023-11-30T17:37:56Z) - KIT's Multilingual Speech Translation System for IWSLT 2023 [58.5152569458259]
IWSLT 2023の多言語トラックに対する音声翻訳システムについて述べる。
このタスクは、様々な量のリソースを持つ10の言語に翻訳する必要がある。
我々のケースド音声システムは、科学的な話の翻訳において、エンドツーエンドの音声よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-06-08T16:13:20Z) - Understanding Translationese in Cross-Lingual Summarization [106.69566000567598]
言語間要約(MS)は、異なる対象言語で簡潔な要約を生成することを目的としている。
大規模なCLSデータを集めるために、既存のデータセットは通常、それらの生成に翻訳を伴います。
本稿では、まず、CLSデータセット構築の異なるアプローチが、異なるレベルの翻訳に結びつくことを確認する。
論文 参考訳(メタデータ) (2022-12-14T13:41:49Z) - Speech-to-Speech Translation For A Real-world Unwritten Language [62.414304258701804]
本研究では、ある言語から別の言語に音声を翻訳する音声音声翻訳(S2ST)について研究する。
我々は、トレーニングデータ収集、モデル選択、ベンチマークデータセットのリリースからエンドツーエンドのソリューションを提示します。
論文 参考訳(メタデータ) (2022-11-11T20:21:38Z) - Handshakes AI Research at CASE 2021 Task 1: Exploring different
approaches for multilingual tasks [0.22940141855172036]
ケース2021共有タスク1の目的は,多言語環境下での社会・政治・危機事象情報の検出と分類である。
提案書にはすべてのサブタスクのエントリが含まれており,得られたスコアが調査結果の妥当性を検証した。
論文 参考訳(メタデータ) (2021-10-29T07:58:49Z) - Accenture at CheckThat! 2021: Interesting claim identification and
ranking with contextually sensitive lexical training data augmentation [0.0]
本稿では,CLEF2021 CheckThat! Lab, Task 1におけるAccenture Teamのアプローチについて論じる。
ソーシャルメディア上での主張が、幅広い読者にとって興味深いものなのか、事実確認されるべきなのかを特定できる。
Twitterのトレーニングとテストデータは、英語、アラビア語、スペイン語、トルコ語、ブルガリア語で提供されている。
論文 参考訳(メタデータ) (2021-07-12T18:46:47Z) - Generative Conversational Networks [67.13144697969501]
本稿では,対話エージェントが独自のラベル付き学習データを生成することを学習する,生成会話ネットワーク(Generative Conversational Networks)というフレームワークを提案する。
そこで本研究では,シードデータから学習したベースラインモデルに対して,意図検出が平均35%,スロットタグが平均21%向上したことを示す。
論文 参考訳(メタデータ) (2021-06-15T23:19:37Z) - WNUT-2020 Task 2: Identification of Informative COVID-19 English Tweets [21.41654078561586]
10Kツイートのコーパスを構築し、このタスクの開発と評価フェーズを整理する方法について述べる。
55チームの最終システム評価結果から得られた結果の概要を概説する。
論文 参考訳(メタデータ) (2020-10-16T08:28:05Z) - A Sentence Cloze Dataset for Chinese Machine Reading Comprehension [64.07894249743767]
我々はSentence Cloze-style Machine Reading (SC-MRC)と呼ばれる新しいタスクを提案する。
提案課題は,複数の空白を持つ文に適切な候補文を埋めることである。
私たちは、SC-MRCタスクの難しさを評価するためにCMRC 2019という中国のデータセットを構築しました。
論文 参考訳(メタデータ) (2020-04-07T04:09:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。