論文の概要: ReINTEL Challenge 2020: Exploiting Transfer Learning Modelsfor Reliable
Intelligence Identification on Vietnamese Social Network Sites
- arxiv url: http://arxiv.org/abs/2102.10794v2
- Date: Tue, 23 Feb 2021 12:26:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 11:31:37.646402
- Title: ReINTEL Challenge 2020: Exploiting Transfer Learning Modelsfor Reliable
Intelligence Identification on Vietnamese Social Network Sites
- Title(参考訳): ReINTEL Challenge 2020:ベトナムのソーシャルネットワークサイトにおける信頼できるインテリジェンス識別のための転送学習モデルを公開
- Authors: Kim Thi-Thanh Nguyen, Kiet Van Nguyen
- Abstract要約: 本稿では,ベトナムのソーシャルネットワークサイト(ReINTEL)における信頼性情報識別システムを提案する。
このタスクでは、VLSP 2020は、信頼性または信頼性の低いラベルで注釈付けされた約6,000のトレーニングニュース/ポストのデータセットを提供し、テストセットはラベルなしで2,000のサンプルで構成されている。
実験では,ReINTELのオーガナイザによるプライベートテストセットのAUCスコアが94.52%に達した。
- 参考スコア(独自算出の注目度): 0.38073142980733
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents the system that we propose for the Reliable Intelligence
Indentification on Vietnamese Social Network Sites (ReINTEL) task of the
Vietnamese Language and Speech Processing 2020 (VLSP 2020) Shared Task. In this
task, the VLSP 2020 provides a dataset with approximately 6,000 trainning
news/posts annotated with reliable or unreliable labels, and a test set
consists of 2,000 examples without labels. In this paper, we conduct
experiments on different transfer learning models, which are bert4news and
PhoBERT fine-tuned to predict whether the news is reliable or not. In our
experiments, we achieve the AUC score of 94.52% on the private test set from
ReINTEL's organizers.
- Abstract(参考訳): 本稿ではベトナム語・音声処理2020(VLSP 2020)共有タスクのベトナム語ソーシャルネットワークサイト(ReINTEL)タスクにおける信頼性の高いインテリジェンス・インデント化を提案する。
このタスクでは、VLSP 2020は、信頼性または信頼性の低いラベルで注釈付けされた約6,000のトレーニングニュース/ポストのデータセットを提供し、テストセットはラベルなしで2,000のサンプルで構成されている。
本稿では, bert4news と PhoBERT を微調整して, ニュースが信頼できるかどうかを推定する, 異なる伝達学習モデルの実験を行う。
実験では,ReINTELのオーガナイザによるプライベートテストセットのAUCスコアが94.52%に達した。
関連論文リスト
- BJTU-WeChat's Systems for the WMT22 Chat Translation Task [66.81525961469494]
本稿では,WMT'22チャット翻訳タスクに対して,北京地東大学とWeChat AIを共同で提案する。
Transformerに基づいて、いくつかの有効な変種を適用します。
本システムでは,0.810と0.946のCOMETスコアを達成している。
論文 参考訳(メタデータ) (2022-11-28T02:35:04Z) - UrduFake@FIRE2020: Shared Track on Fake News Identification in Urdu [62.6928395368204]
本稿では、ウルドゥー語における偽ニュース検出に関するFIRE 2020における最初の共有タスクの概要について述べる。
目標は、900の注釈付きニュース記事と400のニュース記事からなるデータセットを使って偽ニュースを特定することである。
データセットには、 (i) Health、 (ii) Sports、 (iii) Showbiz、 (iv) Technology、 (v) Businessの5つのドメインのニュースが含まれている。
論文 参考訳(メタデータ) (2022-07-25T03:46:51Z) - Overview of the Shared Task on Fake News Detection in Urdu at FIRE 2020 [62.6928395368204]
タスクはバイナリ分類タスクとして設定され、ゴールはリアルニュースとフェイクニュースを区別することである。
トレーニング用に900の注釈付きニュース記事とテスト用に400のニュース記事のデータセットを作成した。
6カ国(インド、中国、エジプト、ドイツ、パキスタン、イギリス)の42チームが登録された。
論文 参考訳(メタデータ) (2022-07-25T03:41:32Z) - Overview of the Shared Task on Fake News Detection in Urdu at FIRE 2021 [55.41644538483948]
共有タスクの目標は、コミュニティにこの重要な問題を解決するための効率的な方法を考え出すことを動機付けることです。
トレーニングセットには1300件の注釈付きニュース記事、750件のリアルニュース、550件のフェイクニュース、300件のニュース記事、200件のリアルニュース、100件のフェイクニュースが含まれている。
F1-macroスコアは0.679で、これは過去最高の0.907 F1-macroよりも低かった。
論文 参考訳(メタデータ) (2022-07-11T18:58:36Z) - NLPBK at VLSP-2020 shared task: Compose transformer pretrained models
for Reliable Intelligence Identification on Social network [0.0]
本稿では,ベトナムのSNS問題に対して,トランスフォーマーをベースとした事前訓練モデルを用いて,信頼度の高いインテリジェンス同定を適応させる手法について述べる。
また、bert-base事前学習モデルと、コメント数、いいね!数、SNS文書の画像などのメタデータ機能を組み合わせたモデルも提案した。
適切なトレーニング手法により,本モデルはパブリックテストセットで0.9392 ROC-AUCを達成でき,最終バージョンはプライベートテストセットでトップ2 ROC-AUC (0.9513) に収まる。
論文 参考訳(メタデータ) (2021-01-29T16:19:28Z) - ReINTEL: A Multimodal Data Challenge for Responsible Information
Identification on Social Network Sites [7.653131137068877]
本稿では,ReINTEL Shared Task for Responsible Information Identification on social network sitesについて報告する。
それぞれのテキスト、ビジュアルコンテンツ、メタデータのニュースが与えられた場合、参加者はニュースが信頼できるかどうかを分類する必要がある」。
ベトナムのソーシャルネットワークから集めた1万件以上のニュースを人間に注釈付けした新しいデータセットを紹介します。
論文 参考訳(メタデータ) (2020-12-16T12:17:08Z) - Leveraging Transfer Learning for Reliable Intelligence Identification on
Vietnamese SNSs (ReINTEL) [0.8602553195689513]
単言語モデルと多言語事前学習モデルの両方を利用する。
我々のチームはプライベートテストセットのROC-AUC測定値で0.9378を達成しました。
論文 参考訳(メタデータ) (2020-12-10T15:43:50Z) - WeChat Neural Machine Translation Systems for WMT20 [61.03013964996131]
本システムは,有効な変種とDTMTアーキテクチャを備えたTransformerをベースとしている。
実験では,データ選択,複数の合成データ生成手法,高度な微調整手法,自己視覚モデルアンサンブルを用いた。
制約のある中国語と英語のシステムでは36.9のケースセンシティブなBLEUスコアが得られます。
論文 参考訳(メタデータ) (2020-10-01T08:15:09Z) - Kungfupanda at SemEval-2020 Task 12: BERT-Based Multi-Task Learning for
Offensive Language Detection [55.445023584632175]
我々は,マルチタスク学習とBERTモデルを組み合わせた攻撃的言語検出システムを構築した。
我々のモデルは、英語のサブタスクAで91.51%のF1スコアを獲得し、これは第1位に匹敵する。
論文 参考訳(メタデータ) (2020-04-28T11:27:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。