論文の概要: Deep or Simple Models for Semantic Tagging? It Depends on your Data
[Experiments]
- arxiv url: http://arxiv.org/abs/2007.05651v2
- Date: Thu, 8 Oct 2020 22:45:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:16:43.087718
- Title: Deep or Simple Models for Semantic Tagging? It Depends on your Data
[Experiments]
- Title(参考訳): セマンティックタグの深部モデルと簡易モデル
それはあなたのデータ[実験]に依存する
- Authors: Jinfeng Li, Yuliang Li, Xiaolan Wang, Wang-Chiew Tan
- Abstract要約: その結果,データセットのサイズ,ラベル比,ラベルのクリーン化がセマンティックタグ付けの品質に大きく影響していることが判明した。
単純なモデルは、大きなデータセット上のディープモデルと同じようなタグ付け品質を実現するが、単純なモデルのランタイムはずっと短い。
- 参考スコア(独自算出の注目度): 26.48209520599515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semantic tagging, which has extensive applications in text mining, predicts
whether a given piece of text conveys the meaning of a given semantic tag. The
problem of semantic tagging is largely solved with supervised learning and
today, deep learning models are widely perceived to be better for semantic
tagging. However, there is no comprehensive study supporting the popular
belief. Practitioners often have to train different types of models for each
semantic tagging task to identify the best model. This process is both
expensive and inefficient.
We embark on a systematic study to investigate the following question: Are
deep models the best performing model for all semantic tagging tasks? To answer
this question, we compare deep models against "simple models" over datasets
with varying characteristics. Specifically, we select three prevalent deep
models (i.e. CNN, LSTM, and BERT) and two simple models (i.e. LR and SVM), and
compare their performance on the semantic tagging task over 21 datasets.
Results show that the size, the label ratio, and the label cleanliness of a
dataset significantly impact the quality of semantic tagging. Simple models
achieve similar tagging quality to deep models on large datasets, but the
runtime of simple models is much shorter. Moreover, simple models can achieve
better tagging quality than deep models when targeting datasets show worse
label cleanliness and/or more severe imbalance. Based on these findings, our
study can systematically guide practitioners in selecting the right learning
model for their semantic tagging task.
- Abstract(参考訳): テキストマイニングに広く応用されているセマンティックタグは、あるテキストが与えられたセマンティックタグの意味を伝達するかどうかを予測する。
セマンティックタグの問題は教師付き学習によって主に解決され、今日では、ディープラーニングモデルの方がセマンティックタグに適していると広く認識されている。
しかし、俗説を支持する総合的な研究はない。
実践者は、最良のモデルを特定するために、セマンティックなタグ付けタスクごとに異なるタイプのモデルを訓練する必要があります。
このプロセスは高価で非効率である。
ディープモデル(deep model)は、すべてのセマンティックタグタスクにおいて、最高のパフォーマンスモデルなのでしょうか?
この質問に答えるために、異なる特徴を持つデータセットよりも深いモデルと"単純なモデル"を比較します。
具体的には、一般的な3つのディープモデル(CNN、LSTM、BERT)と2つのシンプルなモデル(LR、SVM)を選択し、21データセット以上のセマンティックタグタスクのパフォーマンスを比較する。
その結果,データセットのサイズ,ラベル比率,ラベルのクリーンラインが意味的タグの質に大きく影響することがわかった。
単純なモデルは大規模データセットのディープモデルと同様のタグ付け品質を実現するが、単純なモデルのランタイムはずっと短い。
さらに、単純なモデルでは、データセットをターゲットとする場合、ラベルの清潔さやより深刻な不均衡を示す場合、ディープモデルよりもタグ付け品質が向上する。
これらの結果から,本研究は実践者に対して,意味的タグづけタスクに適した学習モデルの選択を体系的に指導することができる。
関連論文リスト
- Enabling Small Models for Zero-Shot Classification through Model Label Learning [50.68074833512999]
モデルと機能の間のギャップを埋める新しいパラダイムであるモデルラベル学習(MLL)を導入する。
7つの実世界のデータセットの実験により、MLLの有効性と効率が検証された。
論文 参考訳(メタデータ) (2024-08-21T09:08:26Z) - CerberusDet: Unified Multi-Dataset Object Detection [0.0]
CerberusDetは、複数のオブジェクト検出タスクを処理するために設計されたマルチヘッドモデルを持つフレームワークである。
提案されたモデルはYOLOアーキテクチャ上に構築され、バックボーンとネックコンポーネントの両方から視覚的特徴を効率的に共有する。
CerberusDetは36%の推論時間で最先端の結果を得た。
論文 参考訳(メタデータ) (2024-07-17T15:00:35Z) - When are Foundation Models Effective? Understanding the Suitability for Pixel-Level Classification Using Multispectral Imagery [23.464350453312584]
非常に大きなディープラーニングモデルであるファンデーションモデルは、様々な言語やビジョンタスクにおいて印象的なパフォーマンスを示してきた。
ファンデーションモデルは、常に異なるリモートセンシングタスクに適した選択肢であり、いつ、いつ、いつ、そうでないか?
本研究の目的は,画素レベルの分類のための基礎モデルの現状と適合性を理解することである。
論文 参考訳(メタデータ) (2024-04-17T23:30:48Z) - Comparing effectiveness of regularization methods on text
classification: Simple and complex model in data shortage situation [0.8848340429852071]
ラベル付きデータが少ない場合, 各種分類モデルに対する正規化手法の効果について検討する。
簡単な単語埋め込みモデルと複雑なモデルを比較する。
4つのテキスト分類データセットの正規化効果を評価する。
論文 参考訳(メタデータ) (2024-02-27T07:26:16Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - UnIVAL: Unified Model for Image, Video, Audio and Language Tasks [105.77733287326308]
UnIVALモデルは2つのモードを超えて、テキスト、画像、ビデオ、オーディオを1つのモデルに統合する。
本モデルは,タスクバランスとマルチモーダルカリキュラム学習に基づいて,多くのタスクに対して効率的に事前学習を行う。
統一モデルにより、重み一般化によるマルチモーダルモデルの融合に関する新しい研究を提案する。
論文 参考訳(メタデータ) (2023-07-30T09:48:36Z) - Understanding How Model Size Affects Few-shot Instruction Prompting [0.0]
モデルのサイズが与えられた文脈における単語の意味を識別するモデルの能力にどのように影響するかを検討する。
我々はDeltaWordsと呼ばれるデータセットを導入し、モデルが指示に従う能力を評価する。
モデルのサイズが大きくなるにつれてタスクの精度が低下する、弱い逆スケーリング傾向を示す。
論文 参考訳(メタデータ) (2022-12-04T19:59:52Z) - Model Extraction Attack against Self-supervised Speech Models [52.81330435990717]
自己教師付き学習(SSL)音声モデルは、与えられたクリップの有意義な表現を生成する。
モデル抽出攻撃 (MEA) は、しばしば、クエリアクセスのみで被害者モデルの機能を盗む敵を指す。
本稿では,少数のクエリを用いたSSL音声モデルに対するMEA問題について検討する。
論文 参考訳(メタデータ) (2022-11-29T09:28:05Z) - Exploring Strategies for Generalizable Commonsense Reasoning with
Pre-trained Models [62.28551903638434]
モデルの一般化と精度に及ぼす3つの異なる適応法の影響を計測する。
2つのモデルを用いた実験では、微調整はタスクの内容と構造の両方を学習することで最もうまく機能するが、過度に適合し、新しい答えへの限定的な一般化に苦しむ。
我々は、プレフィックスチューニングのような代替適応手法が同等の精度を持つのを観察するが、解を見落とさずに一般化し、対数分割に対してより堅牢である。
論文 参考訳(メタデータ) (2021-09-07T03:13:06Z) - Multi-Task Self-Training for Learning General Representations [97.01728635294879]
マルチタスク・セルフトレーニング(MuST)は、独立した専門教師モデルにおける知識を活用して、一人の一般学生モデルを訓練する。
MuSTはラベルなしまたは部分的にラベル付けされたデータセットでスケーラブルで、大規模データセットのトレーニングにおいて、特別な教師付きモデルとセルフ教師付きモデルの両方を上回っている。
論文 参考訳(メタデータ) (2021-08-25T17:20:50Z) - A Comparison of LSTM and BERT for Small Corpus [0.0]
NLP分野の最近の進歩は、スクラッチから始めるのではなく、事前学習されたモデルを調整することによって、新しいタスクの最先端結果を達成するのに、トランスファーラーニングが役立つことを示している。
本稿では、学術と産業の科学者が頻繁に直面する現実的なシナリオに焦点を当てる。小さなデータセットがあれば、BERTのような大規模な事前学習モデルを使用して、単純なモデルよりも優れた結果を得ることができるか?
実験の結果,2方向LSTMモデルは小データセットのBERTモデルよりもはるかに高い結果が得られることが示され,これらの単純なモデルは事前学習したモデルよりもはるかに少ない時間で訓練されることがわかった。
論文 参考訳(メタデータ) (2020-09-11T14:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。