論文の概要: Transfer Learning in Conversational Analysis through Reusing
Preprocessing Data as Supervisors
- arxiv url: http://arxiv.org/abs/2112.03032v1
- Date: Thu, 2 Dec 2021 08:40:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-11 08:28:26.046661
- Title: Transfer Learning in Conversational Analysis through Reusing
Preprocessing Data as Supervisors
- Title(参考訳): 事前処理データをスーパーバイザとして再利用した会話分析における伝達学習
- Authors: Joshua Yee Kim, Tongliang Liu, Kalina Yacef
- Abstract要約: 単一タスク学習におけるノイズの多いラベルの使用は、過度に適合するリスクを増大させる。
補助的なタスクは、同じトレーニング中に一次タスク学習のパフォーマンスを向上させることができる。
- 参考スコア(独自算出の注目度): 52.37504333689262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational analysis systems are trained using noisy human labels and
often require heavy preprocessing during multi-modal feature extraction. Using
noisy labels in single-task learning increases the risk of over-fitting.
Auxiliary tasks could improve the performance of the primary task learning
during the same training -- this approach sits in the intersection of transfer
learning and multi-task learning (MTL). In this paper, we explore how the
preprocessed data used for feature engineering can be re-used as auxiliary
tasks, thereby promoting the productive use of data. Our main contributions
are: (1) the identification of sixteen beneficially auxiliary tasks, (2)
studying the method of distributing learning capacity between the primary and
auxiliary tasks, and (3) studying the relative supervision hierarchy between
the primary and auxiliary tasks. Extensive experiments on IEMOCAP and SEMAINE
data validate the improvements over single-task approaches, and suggest that it
may generalize across multiple primary tasks.
- Abstract(参考訳): 会話分析システムは、ノイズの多い人間のラベルを使って訓練され、マルチモーダル特徴抽出の間、しばしば重い前処理を必要とする。
シングルタスク学習でノイズの多いラベルを使用することで、過剰フィッティングのリスクが高まる。
補助的なタスクは、同じトレーニング中に主要なタスク学習のパフォーマンスを改善する。このアプローチは、移行学習とマルチタスク学習(MTL)の交差点に位置する。
本稿では,機能工学に使用する前処理データを補助的タスクとして再利用し,生産的なデータ利用を促進する方法について検討する。
本研究の主な貢献は,(1)有効な16のタスクの識別,(2)初等タスクと補助タスクの学習能力を分配する方法の研究,(3)初等タスクと補助タスクの相対的な監督階層の研究である。
IEMOCAPとSEMAINEのデータによる大規模な実験により、シングルタスクアプローチの改善が検証され、複数の主要なタスクにまたがって一般化されることが示唆された。
関連論文リスト
- Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Learning Multi-Tasks with Inconsistent Labels by using Auxiliary Big
Task [24.618094251341958]
マルチタスク学習は,タスク間の共通知識の伝達と活用により,モデルの性能を向上させることを目的とする。
本稿では,これらの課題をカバーするために,学習した補助的大タスクから豊富な情報と十分な数のクラスを両立させることにより,これらの課題を学習するための枠組みを提案する。
実験により, 現状のアプローチと比較し, その有効性を示した。
論文 参考訳(メタデータ) (2022-01-07T02:46:47Z) - Learning Multiple Dense Prediction Tasks from Partially Annotated Data [41.821234589075445]
マルチタスク部分教師付き学習(multi-task part-supervised learning)と呼ぶ部分注釈付きデータ上で,複数の密接な予測タスクを共同で学習する。
本稿では,タスク関係を利用したマルチタスク学習手法を提案する。
提案手法は,既存の半教師付き学習手法や関連手法を3つの標準ベンチマークで上回り,非ラベルなタスクで効果的に活用できることを厳密に実証する。
論文 参考訳(メタデータ) (2021-11-29T19:03:12Z) - Variational Multi-Task Learning with Gumbel-Softmax Priors [105.22406384964144]
マルチタスク学習は、タスク関連性を探究し、個々のタスクを改善することを目的としている。
本稿では,複数のタスクを学習するための一般的な確率的推論フレームワークである変分マルチタスク学習(VMTL)を提案する。
論文 参考訳(メタデータ) (2021-11-09T18:49:45Z) - Measuring and Harnessing Transference in Multi-Task Learning [58.48659733262734]
マルチタスク学習は、あるタスクによって学習された情報を活用して、他のタスクのトレーニングに役立てることができる。
情報伝達や伝達のダイナミクスを、トレーニングを通して分析する。
論文 参考訳(メタデータ) (2020-10-29T08:25:43Z) - Auxiliary Task Reweighting for Minimum-data Learning [118.69683270159108]
教師付き学習は大量のトレーニングデータを必要とし、ラベル付きデータが不足しているアプリケーションを制限する。
データ不足を補う1つの方法は、補助的なタスクを利用して、メインタスクに対する追加の監視を提供することである。
そこで本研究では,主タスクにおけるデータ要求を減らし,補助タスクを自動的に重み付けする手法を提案する。
論文 参考訳(メタデータ) (2020-10-16T08:45:37Z) - A Brief Review of Deep Multi-task Learning and Auxiliary Task Learning [0.0]
マルチタスク学習(MTL)は、複数の学習タスクを同時に最適化する。
パフォーマンスを高めるために、補助的なタスクをメインタスクに追加することができる。
論文 参考訳(メタデータ) (2020-07-02T14:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。