論文の概要: Leveraging Transfer Learning for Reliable Intelligence Identification on
Vietnamese SNSs (ReINTEL)
- arxiv url: http://arxiv.org/abs/2012.07557v2
- Date: Wed, 16 Dec 2020 15:10:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 14:10:51.296419
- Title: Leveraging Transfer Learning for Reliable Intelligence Identification on
Vietnamese SNSs (ReINTEL)
- Title(参考訳): ベトナムSNSにおける信頼度情報識別のための移動学習の活用(ReINTEL)
- Authors: Trung-Hieu Tran, Long Phan, Truong-Son Nguyen, Tien-Huy Nguyen
- Abstract要約: 単言語モデルと多言語事前学習モデルの両方を利用する。
我々のチームはプライベートテストセットのROC-AUC測定値で0.9378を達成しました。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposed several transformer-based approaches for Reliable
Intelligence Identification on Vietnamese social network sites at VLSP 2020
evaluation campaign. We exploit both of monolingual and multilingual
pre-trained models. Besides, we utilize the ensemble method to improve the
robustness of different approaches. Our team achieved a score of 0.9378 at
ROC-AUC metric in the private test set which is competitive to other
participants.
- Abstract(参考訳): 本稿ではVLSP 2020評価キャンペーンにおいてベトナムのソーシャルネットワーク上での信頼性情報同定のためのトランスフォーマーに基づくいくつかのアプローチを提案する。
単言語モデルと多言語事前学習モデルの両方を利用する。
さらに,アンサンブル法を用いて,異なるアプローチの堅牢性を向上させる。
我々のチームは、他の参加者と競争するプライベートテストセットでROC-AUCで0.9378のスコアを獲得しました。
関連論文リスト
- Learning for Amalgamation: A Multi-Source Transfer Learning Framework
For Sentiment Classification [1.9249287163937971]
本研究は,1つの事前学習モデルを用いたトランスファーラーニングの一般的な実践を超越した研究である。
いくつかの事前学習モデルから統合埋め込みを学ぶためのフレームワークLIFAを提案する。
ベトナム初の大規模感情分類データベースを構築した。
論文 参考訳(メタデータ) (2023-03-16T07:02:03Z) - From English to More Languages: Parameter-Efficient Model Reprogramming
for Cross-Lingual Speech Recognition [50.93943755401025]
言語間音声認識のためのニューラルモデル再プログラミングに基づく新しいパラメータ効率学習フレームワークを提案する。
我々は、学習可能な事前学習機能強化に焦点を当てた、異なる補助的ニューラルネットワークアーキテクチャを設計する。
提案手法は,既存のASRチューニングアーキテクチャとその拡張性能を自己監督的損失で向上させる。
論文 参考訳(メタデータ) (2023-01-19T02:37:56Z) - ConNER: Consistency Training for Cross-lingual Named Entity Recognition [96.84391089120847]
言語間の名前付きエンティティ認識は、対象言語のデータの不足に悩まされる。
言語間NERのための新しい一貫性トレーニングフレームワークとしてConNERを提案する。
論文 参考訳(メタデータ) (2022-11-17T07:57:54Z) - Curriculum Learning for Safe Mapless Navigation [71.55718344087657]
本研究は,カリキュラム学習(CL)に基づくアプローチがエージェントのパフォーマンスに与える影響について検討する。
特に、ロボットマップレスナビゲーションの安全性に焦点をあて、標準的なエンドツーエンド(E2E)トレーニング戦略と比較する。
論文 参考訳(メタデータ) (2021-12-23T12:30:36Z) - CoSSL: Co-Learning of Representation and Classifier for Imbalanced
Semi-Supervised Learning [98.89092930354273]
本稿では,非バランスなSSLのための非結合表現学習と分類器学習を用いた新しいコラーニングフレームワーク(CoSSL)を提案する。
データ不均衡に対処するため、分類器学習のためのTFE(Tail-class Feature Enhancement)を考案した。
実験により,本手法は様々な分散分布において,他の手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-12-08T20:13:13Z) - Private Language Model Adaptation for Speech Recognition [15.726921748859393]
音声モデルの適応は、サーバ側のプロキシトレーニングデータとユーザのローカルデバイスで受信した実際のデータとの相違を扱うために不可欠である。
本稿では,ニューラルネットワーク言語モデル(NNLM)を,音声認識に応用したプライベートデバイスに継続的に適用するための効率的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-28T00:15:43Z) - Boosting Cross-Lingual Transfer via Self-Learning with Uncertainty
Estimation [34.97086123805344]
最近の多言語事前訓練型言語モデルは、目覚ましいゼロショット性能を実現している。
対象言語のラベルのないデータをさらに活用する自己学習フレームワークを提案する。
我々は,NER(Nond Entity Recognition)とNLI(Natural Language Inference)の2つの言語間タスクについて,40言語を網羅した不確実性で評価した。
論文 参考訳(メタデータ) (2021-09-01T05:26:46Z) - AmericasNLI: Evaluating Zero-shot Natural Language Understanding of
Pretrained Multilingual Models in Truly Low-resource Languages [75.08199398141744]
我々は、XNLI(Conneau et al)の拡張である AmericasNLI を提示する。
は、アメリカ大陸の10の原住民の言語である。
XLM-Rで実験を行い、複数のゼロショットおよび翻訳ベースのアプローチをテストします。
XLM-Rのゼロショット性能は全10言語で低調であり、平均性能は38.62%である。
論文 参考訳(メタデータ) (2021-04-18T05:32:28Z) - ReINTEL Challenge 2020: Exploiting Transfer Learning Models for Reliable
Intelligence Identification on Vietnamese Social Network Sites [0.38073142980733]
本稿では,ベトナムのソーシャルネットワークサイト(ReINTEL)における信頼性情報識別システムを提案する。
このタスクでは、VLSP 2020は、信頼性または信頼性の低いラベルで注釈付けされた約6,000のトレーニングニュース/ポストのデータセットを提供し、テストセットはラベルなしで2,000のサンプルで構成されている。
実験では,ReINTELのオーガナイザによるプライベートテストセットのAUCスコアが94.52%に達した。
論文 参考訳(メタデータ) (2021-02-22T06:17:33Z) - NLPBK at VLSP-2020 shared task: Compose transformer pretrained models
for Reliable Intelligence Identification on Social network [0.0]
本稿では,ベトナムのSNS問題に対して,トランスフォーマーをベースとした事前訓練モデルを用いて,信頼度の高いインテリジェンス同定を適応させる手法について述べる。
また、bert-base事前学習モデルと、コメント数、いいね!数、SNS文書の画像などのメタデータ機能を組み合わせたモデルも提案した。
適切なトレーニング手法により,本モデルはパブリックテストセットで0.9392 ROC-AUCを達成でき,最終バージョンはプライベートテストセットでトップ2 ROC-AUC (0.9513) に収まる。
論文 参考訳(メタデータ) (2021-01-29T16:19:28Z) - Cross-lingual Retrieval for Iterative Self-Supervised Training [66.3329263451598]
言語間のアライメントは、Seq2seqモデルを、自身のエンコーダ出力を用いてマイニングされた文対上で訓練することでさらに改善することができる。
我々は,反復型自己教師型訓練のための言語間検索という新しい手法を開発した。
論文 参考訳(メタデータ) (2020-06-16T21:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。