論文の概要: Improving Social Meaning Detection with Pragmatic Masking and Surrogate
Fine-Tuning
- arxiv url: http://arxiv.org/abs/2108.00356v1
- Date: Sun, 1 Aug 2021 03:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 09:15:07.575742
- Title: Improving Social Meaning Detection with Pragmatic Masking and Surrogate
Fine-Tuning
- Title(参考訳): 実用的マスキングによる社会的意味検出の改善とサロゲートファインチューニング
- Authors: Chiyu Zhang, Muhammad Abdul-Mageed, AbdelRahim Elmadany, El Moatez
Billah Nagoudi
- Abstract要約: Masked Language Model (MLM) は、たとえ有用であっても下流の微調整の目的とミスマッチしているとして、事前に訓練されている。
本研究では,社会的な意味のタスクに有用な,幅広い概念のセットに向けて,事前学習された表現を促進するための2つの戦略として,実践的なマスキングと微調整を提案する。
- 参考スコア(独自算出の注目度): 6.877263360331783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Masked language models (MLMs) are pretrained with a denoising objective that,
while useful, is in a mismatch with the objective of downstream fine-tuning. We
propose pragmatic masking and surrogate fine-tuning as two strategies that
exploit social cues to drive pre-trained representations toward a broad set of
concepts useful for a wide class of social meaning tasks. To test our methods,
we introduce a new benchmark of 15 different Twitter datasets for social
meaning detection. Our methods achieve 2.34% F1 over a competitive baseline,
while outperforming other transfer learning methods such as multi-task learning
and domain-specific language models pretrained on large datasets. With only 5%
of training data (severely few-shot), our methods enable an impressive 68.74%
average F1, and we observe promising results in a zero-shot setting involving
six datasets from three different languages.
- Abstract(参考訳): Masked Language Model (MLM) は、たとえ有用であっても下流の微調整の目的とミスマッチしているとして、事前に訓練されている。
本研究では,社会的な意味のタスクに有用な幅広い概念のセットに向けて,事前学習された表現を促進するための2つの戦略として,実用的なマスキングと微調整を提案する。
提案手法をテストするため,ソーシャルな意味検出のための15種類のTwitterデータセットのベンチマークを新たに導入した。
提案手法は,マルチタスク学習や大規模データセットで事前学習したドメイン固有言語モデルといった他のトランスファー学習手法よりも優れながら,競合ベースラインよりも2.34%のf1を達成している。
トレーニングデータのわずか5%(ごく少数)で、我々の手法は68.74%の平均的なF1を印象的に実現し、3つの異なる言語の6つのデータセットを含むゼロショット設定で有望な結果を観察する。
関連論文リスト
- A Cross-Lingual Meta-Learning Method Based on Domain Adaptation for Speech Emotion Recognition [1.8377902806196766]
最高のパフォーマンスの音声モデルは、彼らが目的とする言語で大量のデータに基づいて訓練される。
ほとんどの言語はスパースデータを持ち、トレーニングモデルを困難にしている。
本研究は、限られたデータ、特に音声感情認識のためのモデルの性能について考察する。
論文 参考訳(メタデータ) (2024-10-06T21:33:51Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - Multi-Level Contrastive Learning for Dense Prediction Task [59.591755258395594]
本稿では,高密度予測タスクのための領域レベルの特徴表現を効率よく学習するための,MCL(Multi-Level Contrastive Learning for Dense Prediction Task)を提案する。
本手法は, 局所化, スケールの整合性, 認識の3つの要因に動機付けられている。
提案手法は,様々なデータセットにおける最近の最先端の手法よりも有意なマージンを有する。
論文 参考訳(メタデータ) (2023-04-04T17:59:04Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - ZhichunRoad at Amazon KDD Cup 2022: MultiTask Pre-Training for
E-Commerce Product Search [4.220439000486713]
検索結果の質を向上させるために,頑健な多言語モデルを提案する。
事前学習の段階では、mlmタスク、分類タスク、コントラスト学習タスクを採用する。
微調整段階では、自信ある学習、指数的移動平均法(EMA)、対人訓練(FGM)、正規化ドロップアウト戦略(R-Drop)を用いる。
論文 参考訳(メタデータ) (2023-01-31T07:31:34Z) - Por Qu\'e N\~ao Utiliser Alla Spr{\aa}k? Mixed Training with Gradient
Optimization in Few-Shot Cross-Lingual Transfer [2.7213511121305465]
本研究では,ソースデータとターゲットデータの両方を学習する1ステップ混合学習手法を提案する。
我々は1つのモデルを使って全てのターゲット言語を同時に処理し、過度に言語固有のモデルを避ける。
提案手法は,全タスクの最先端性能と目標適応性能を高いマージンで向上させる。
論文 参考訳(メタデータ) (2022-04-29T04:05:02Z) - Bridging the Gap between Language Models and Cross-Lingual Sequence
Labeling [101.74165219364264]
大規模言語間事前学習言語モデル (xPLM) は、言語間シーケンスラベリングタスクにおいて有効であることを示す。
大きな成功にもかかわらず、事前学習と微調整の段階の間には訓練対象のギャップがあるという経験的観察を描いている。
本稿では,まず,言語間インフォーマティブ・スパン・マスキング(CLISM)と呼ばれるxSLのための事前学習タスクを設計し,目的のギャップを解消する。
第2に、コントラスト学習を利用して入力並列表現間の一貫性を促進するContrAstive-Consistency Regularization (CACR)を提案する。
論文 参考訳(メタデータ) (2022-04-11T15:55:20Z) - Fast Uncertainty Quantification for Deep Object Pose Estimation [91.09217713805337]
深層学習に基づくオブジェクトポーズ推定は、しばしば信頼できない、自信過剰である。
本研究では,6-DoFオブジェクトのポーズ推定のための,シンプルで効率的かつプラグアンドプレイなUQ手法を提案する。
論文 参考訳(メタデータ) (2020-11-16T06:51:55Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。