論文の概要: CLAR: Contrastive Learning of Auditory Representations
- arxiv url: http://arxiv.org/abs/2010.09542v1
- Date: Mon, 19 Oct 2020 14:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 23:27:14.023222
- Title: CLAR: Contrastive Learning of Auditory Representations
- Title(参考訳): CLAR:聴覚表現の対照的な学習
- Authors: Haider Al-Tahan and Yalda Mohsenzadeh
- Abstract要約: 聴覚データに適した様々なデータ拡張を導入し、予測性能への影響を評価する。
時間周波数音声特徴を用いた学習は,学習した表現の質を大幅に向上させることを示す。
これらの手法とラベル付きデータとを併用することにより,予測性能を大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 6.1424670675582576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning rich visual representations using contrastive self-supervised
learning has been extremely successful. However, it is still a major question
whether we could use a similar approach to learn superior auditory
representations. In this paper, we expand on prior work (SimCLR) to learn
better auditory representations. We (1) introduce various data augmentations
suitable for auditory data and evaluate their impact on predictive performance,
(2) show that training with time-frequency audio features substantially
improves the quality of the learned representations compared to raw signals,
and (3) demonstrate that training with both supervised and contrastive losses
simultaneously improves the learned representations compared to self-supervised
pre-training followed by supervised fine-tuning. We illustrate that by
combining all these methods and with substantially less labeled data, our
framework (CLAR) achieves significant improvement on prediction performance
compared to supervised approach. Moreover, compared to self-supervised
approach, our framework converges faster with significantly better
representations.
- Abstract(参考訳): 対照的な自己教師付き学習を用いた豊かな視覚表現の学習は極めて成功した。
しかし、同様のアプローチで優れた聴覚表現を学ぶことができるかどうかについては、依然として大きな疑問である。
本稿では,先行作業(SimCLR)を拡張し,より優れた聴覚表現を学習する。
1)聴覚データに適した様々なデータ拡張を導入し,その予測性能への影響を評価し,(2)時間周波数音声特徴の訓練が生信号に比べて学習表現の質を著しく向上させ,(3)教師付きおよび対照的損失の訓練が,自己教師付き事前学習と教師付き微調整とを同時に改善することを示す。
これらの手法とラベル付きデータとを組み合わせることで,提案手法(clar)は教師付き手法に比べて予測性能が大幅に向上することを示す。
さらに、自己監督アプローチと比較して、我々のフレームワークは大幅に優れた表現でより高速に収束します。
関連論文リスト
- Improving the Modality Representation with Multi-View Contrastive
Learning for Multimodal Sentiment Analysis [15.623293264871181]
コントラスト学習によるモダリティ表現の改良手法について検討した。
我々は,多視点コントラスト学習を用いた3段階のフレームワークを考案し,特定の目的の表現を洗練させる。
3つのオープンデータセットで実験を行い、その結果、我々のモデルの進歩を示す。
論文 参考訳(メタデータ) (2022-10-28T01:25:16Z) - R\'enyiCL: Contrastive Representation Learning with Skew R\'enyi
Divergence [78.15455360335925]
我々はR'enyiCLという新しい頑健なコントラスト学習手法を提案する。
我々の手法は R'enyi divergence の変動的下界の上に構築されている。
我々は,R'enyi の対照的な学習目的が,自然に強い負のサンプリングと簡単な正のサンプリングを同時に行うことを示す。
論文 参考訳(メタデータ) (2022-08-12T13:37:05Z) - SLIP: Self-supervision meets Language-Image Pre-training [79.53764315471543]
自己指導型学習が視覚表現学習における言語指導の活用に役立つかどうかを考察する。
自己教師付き学習とCLIP事前学習を組み合わせたマルチタスク学習フレームワークSLIPを紹介する。
SLIPは、自己監督や言語監督よりも優れたパフォーマンスを享受しています。
論文 参考訳(メタデータ) (2021-12-23T18:07:13Z) - The Impact of Spatiotemporal Augmentations on Self-Supervised
Audiovisual Representation Learning [2.28438857884398]
ラベルなしビデオから音声視覚表現を学習するための対照的な枠組みを提案する。
ビデオの時間的コヒーレンシーを損なわない損失時間変換が最も効果的であることがわかった。
サンプリングベース時間拡張のみで事前訓練された自己教師モデルと比較して、時間拡張で事前訓練された自己教師モデルは、データセットAVE上での線形性能が約6.5%向上する。
論文 参考訳(メタデータ) (2021-10-13T23:48:58Z) - Co$^2$L: Contrastive Continual Learning [69.46643497220586]
近年の自己教師型学習のブレークスルーは、このようなアルゴリズムが視覚的な表現を学習し、見えないタスクにもっとうまく移行できることを示している。
本稿では、連続的な学習と伝達可能な表現の維持に焦点を当てたリハーサルに基づく連続学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-28T06:14:38Z) - Self-supervised Text-independent Speaker Verification using Prototypical
Momentum Contrastive Learning [58.14807331265752]
モーメントの対比学習によって話者埋め込みがより良く学習できることを示す。
自己監視フレームワークを、データのごく一部しかラベル付けされない半監視シナリオに一般化します。
論文 参考訳(メタデータ) (2020-12-13T23:23:39Z) - Self-supervised Co-training for Video Representation Learning [103.69904379356413]
実例に基づく情報ノイズコントラスト推定訓練に意味クラス正の付加を施すことの利点について検討する。
本稿では,インフォネッションNCEの損失を改善するための,自己指導型協調学習手法を提案する。
本研究では,2つの下流タスク(行動認識とビデオ検索)における学習表現の質を評価する。
論文 参考訳(メタデータ) (2020-10-19T17:59:01Z) - A Simple Framework for Contrastive Learning of Visual Representations [116.37752766922407]
本稿では,視覚表現のコントラスト学習のためのシンプルなフレームワークであるSimCLRについて述べる。
我々は,データ拡張の構成が効果的な予測タスクを定義する上で重要な役割を担っていることを示す。
我々は、ImageNet上での自己教師付き半教師付き学習において、従来の手法よりもかなり優れています。
論文 参考訳(メタデータ) (2020-02-13T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。