論文の概要: SASICM A Multi-Task Benchmark For Subtext Recognition
- arxiv url: http://arxiv.org/abs/2106.06944v1
- Date: Sun, 13 Jun 2021 08:29:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:34:10.637362
- Title: SASICM A Multi-Task Benchmark For Subtext Recognition
- Title(参考訳): サブテキスト認識のためのマルチタスクベンチマークSASICM
- Authors: Hua Yan, Weikang Xiao, Feng Han, Jian Zhao, Furao Shen
- Abstract要約: 機械学習によってサブテキストが存在するかどうかをコンピュータに理解させようとする。
私たちは、人気のあるソーシャルメディアからソースデータを得る中国のデータセットを構築します。
また,サブテキスト認識のためのベースラインモデルSASICMを構築した。
- 参考スコア(独自算出の注目度): 12.06519358858538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subtext is a kind of deep semantics which can be acquired after one or more
rounds of expression transformation. As a popular way of expressing one's
intentions, it is well worth studying. In this paper, we try to make computers
understand whether there is a subtext by means of machine learning. We build a
Chinese dataset whose source data comes from the popular social media (e.g.
Weibo, Netease Music, Zhihu, and Bilibili). In addition, we also build a
baseline model called SASICM to deal with subtext recognition. The F1 score of
SASICMg, whose pretrained model is GloVe, is as high as 64.37%, which is 3.97%
higher than that of BERT based model, 12.7% higher than that of traditional
methods on average, including support vector machine, logistic regression
classifier, maximum entropy classifier, naive bayes classifier and decision
tree and 2.39% higher than that of the state-of-the-art, including MARIN and
BTM. The F1 score of SASICMBERT, whose pretrained model is BERT, is 65.12%,
which is 0.75% higher than that of SASICMg. The accuracy rates of SASICMg and
SASICMBERT are 71.16% and 70.76%, respectively, which can compete with those of
other methods which are mentioned before.
- Abstract(参考訳): サブテキストは1つ以上の表現変換の後に取得できる深い意味論の一種である。
意図を表現する一般的な方法として、勉強する価値がある。
本稿では,機械学習を用いてサブテキストが存在するかどうかをコンピュータに理解させようとする。
ソースデータは、人気のソーシャルメディア(例えば、)から得られる中国のデータセットを構築します。
Weibo、Netease Music、Zhihu、Bilibili)。
また,サブテキスト認識のためのベースラインモデルSASICMを構築した。
プレトレーニングモデルがGloVeであるSASICMgのF1スコアは64.37%であり、BERTベースのモデルよりも3.97%高く、サポートベクターマシン、ロジスティック回帰分類器、最大エントロピー分類器、ナイーブベイズ分類器と決定木を含む従来の手法よりも12.7%高く、MARINやBTMを含む最先端技術よりも2.39%高い。
プレトレーニングモデルがBERTであるSASICMBERTのF1スコアは65.12%であり、SASICMgよりも0.75%高い。
sasicmg と sasicmbert の精度はそれぞれ 71.16% と 70.76% であり、前述した他の方法と競合する。
関連論文リスト
- Strengthening Fake News Detection: Leveraging SVM and Sophisticated Text Vectorization Techniques. Defying BERT? [0.0]
本研究では,機械学習と自然言語処理,具体的にはSVM(Support Vector Machines)とBERTを用いて,偽ニュースを検出する。
実ニュースと偽ニュースを区別する上での有効性を評価するために, TF-IDF(Term Frequency Inverse Document Frequency), Word2Vec(Word2Vec), Bag of Words(BoW)の3つの異なるテキストベクトル化手法を用いる。
論文 参考訳(メタデータ) (2024-11-19T18:15:46Z) - CATT: Character-based Arabic Tashkeel Transformer [0.0]
タシュケル(Tashkeel)は、アラビア語のテキストの理解を大幅に強化する。
本稿では,ATDモデルのトレーニングに新たなアプローチを提案する。
11の商用およびオープンソースモデルとともに、当社のモデルを評価します。
論文 参考訳(メタデータ) (2024-07-03T16:05:20Z) - Common 7B Language Models Already Possess Strong Math Capabilities [61.61442513067561]
本稿では,LLaMA-2 7Bモデルと事前学習を併用したモデルが,すでに強力な数学的能力を示していることを示す。
拡張スケーリングの可能性は、公開されている数学の質問の不足によって制限されている。
論文 参考訳(メタデータ) (2024-03-07T18:00:40Z) - TinyGSM: achieving >80% on GSM8k with small language models [49.21136294791747]
小型モデルは様々な計算上の利点を提供するが、どの程度の大きさが問題解決能力にとって重要なのかは未解決のままである。
特に小学校の数学を解くために、GSM8Kベンチマークの80%の障壁を破るために必要なモデルサイズは、まだ34Bである。
我々の研究は、数学的な推論を得るための小さな言語モデルにとって、高品質なデータセットがどのように鍵となるかを研究する。
論文 参考訳(メタデータ) (2023-12-14T18:58:28Z) - Alexa Teacher Model: Pretraining and Distilling Multi-Billion-Parameter
Encoders for Natural Language Understanding Systems [63.713297451300086]
本研究では,700Mから9.3Bまでの非埋め込みパラメータ数を持つ事前学習エンコーダの大規模実験結果について述べる。
その後、17M-170Mパラメータからより小さなモデルに蒸留し、仮想アシスタントシステムの自然言語理解(NLU)コンポーネントに応用した。
論文 参考訳(メタデータ) (2022-06-15T20:44:23Z) - EfficientBERT: Progressively Searching Multilayer Perceptron via Warm-up
Knowledge Distillation [82.3956677850676]
事前学習された言語モデルは、様々なNLPタスクにおいて顕著な結果を示した。
サイズが大きく、推論速度が遅いため、エッジデバイスにデプロイするのは困難である。
本稿では、BERTにおけるフィードフォワードネットワーク(FFN)の改善が、マルチヘッドアテンション(MHA)の改善よりも高い利益をもたらすという批判的な洞察を得る。
論文 参考訳(メタデータ) (2021-09-15T11:25:39Z) - Arabic Speech Recognition by End-to-End, Modular Systems and Human [56.96327247226586]
我々は、エンドツーエンド変換器ASR、モジュール型HMM-DNN ASR、および人間の音声認識のための包括的なベンチマークを行う。
ASRでは、エンドツーエンドの作業が12.5%、27.5%、23.8%のWERとなり、それぞれMGB2、MGB3、MGB5の新たなパフォーマンスマイルストーンとなった。
以上の結果から,アラビア語における人的パフォーマンスは,平均3.6%のWERギャップを持つ機械に比べて,依然としてかなり優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-01-21T05:55:29Z) - DeBERTa: Decoding-enhanced BERT with Disentangled Attention [119.77305080520718]
2つの新しい手法を用いてBERTモデルとRoBERTaモデルを改善する新しいモデルアーキテクチャDeBERTaを提案する。
これらの手法により,モデル事前学習の効率化と,自然言語理解(NLU)と自然言語生成(NLG)の両方の性能向上が期待できる。
論文 参考訳(メタデータ) (2020-06-05T19:54:34Z) - Enhancing lexical-based approach with external knowledge for Vietnamese
multiple-choice machine reading comprehension [2.5199066832791535]
我々はベトナム語の417のテキストに基づいて,2,783対の複数選択質問と回答からなるデータセットを構築した。
本稿では,意味的類似度尺度と外部知識源を用いて質問を分析し,与えられたテキストから回答を抽出する語彙ベースのMDC手法を提案する。
提案手法は,最良ベースラインモデルよりも5.51%高い精度で61.81%の精度を実現する。
論文 参考訳(メタデータ) (2020-01-16T08:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。