論文の概要: COCOA: Cross Modality Contrastive Learning for Sensor Data
- arxiv url: http://arxiv.org/abs/2208.00467v1
- Date: Sun, 31 Jul 2022 16:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:12:39.243471
- Title: COCOA: Cross Modality Contrastive Learning for Sensor Data
- Title(参考訳): COCOA:センサデータのためのクロスモーダルコントラスト学習
- Authors: Shohreh Deldari, Hao Xue, Aaqib Saeed, Daniel V. Smith, Flora D. Salim
- Abstract要約: COCOA(Cross mOdality Contrastive leArning)は、マルチセンサーデータから品質表現を学習するために、新しい目的関数を利用する自己教師型モデルである。
我々はCOCOAが他のすべてのアプローチよりも優れた分類性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 9.440900386313213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-Supervised Learning (SSL) is a new paradigm for learning discriminative
representations without labelled data and has reached comparable or even
state-of-the-art results in comparison to supervised counterparts. Contrastive
Learning (CL) is one of the most well-known approaches in SSL that attempts to
learn general, informative representations of data. CL methods have been mostly
developed for applications in computer vision and natural language processing
where only a single sensor modality is used. A majority of pervasive computing
applications, however, exploit data from a range of different sensor
modalities. While existing CL methods are limited to learning from one or two
data sources, we propose COCOA (Cross mOdality COntrastive leArning), a
self-supervised model that employs a novel objective function to learn quality
representations from multisensor data by computing the cross-correlation
between different data modalities and minimizing the similarity between
irrelevant instances. We evaluate the effectiveness of COCOA against eight
recently introduced state-of-the-art self-supervised models, and two supervised
baselines across five public datasets. We show that COCOA achieves superior
classification performance to all other approaches. Also, COCOA is far more
label-efficient than the other baselines including the fully supervised model
using only one-tenth of available labelled data.
- Abstract(参考訳): SSL(Self-Supervised Learning)はラベル付きデータなしで差別表現を学習するための新しいパラダイムであり、教師付きデータと比較して、同等あるいは最先端の結果に達した。
Contrastive Learning (CL)は、SSLにおいて一般的な情報表現を学習しようとする最もよく知られたアプローチの1つである。
CL法は主にコンピュータビジョンや自然言語処理の応用のために開発されており、単一のセンサモードしか使われていない。
しかし、普及型コンピューティングアプリケーションの大部分は、さまざまなセンサーモダリティのデータを活用している。
既存のCL手法は1つか2つのデータソースからの学習に限られるが、COCOA(Cross mOdality Contrastive leArning)は、異なるデータモダリティ間の相互相関を計算し、無関係なインスタンス間の類似性を最小化することにより、マルチセンサデータから品質表現を学習する、新しい客観的関数を利用する自己教師型モデルである。
我々は、最近導入された8つの最先端セルフ教師付きモデルと、5つの公開データセットにまたがる2つの教師付きベースラインに対するCOCOAの有効性を評価する。
我々はCOCOAが他のすべてのアプローチよりも優れた分類性能を発揮することを示す。
また、COCOAは、利用可能なラベル付きデータの10分の1しか使用しない完全教師付きモデルを含む、他のベースラインよりもはるかにラベル効率が高い。
関連論文リスト
- Joint Adversarial and Collaborative Learning for Self-Supervised Action
Recognition [25.25370509635083]
本稿では,CMAL(Cross-Model Adversarial Learning)とCSCL(Cross-Stream Collaborative Learning)を組み合わせた共同学習フレームワークを提案する。
CMALはクロスモデル逆数損失により単一ストリーム表現を学習し、より識別的な特徴を得る。
CSCLは,マルチストリーム情報を集約し,対話するために,アンサンブル学習の類似性の擬似ラベルを監督として生成して設計する。
論文 参考訳(メタデータ) (2023-07-15T12:37:18Z) - Deep Active Learning Using Barlow Twins [0.0]
畳み込みニューラルネットワーク(CNN)の一般化性能は、トレーニング画像の量、品質、多様性に大きく左右される。
タスクのアクティブラーニングの目標は、ラベルのないプールから最も情報に富んだサンプルを引き出すことである。
本稿では,すべてのデータセットに対する能動的学習手法であるBarlowTwins(DALBT)を用いたDeep Active Learningを提案する。
論文 参考訳(メタデータ) (2022-12-30T12:39:55Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - ColloSSL: Collaborative Self-Supervised Learning for Human Activity
Recognition [9.652822438412903]
堅牢なヒューマンアクティビティ認識モデル(HAR)のトレーニングにおける大きなボトルネックは、大規模ラベル付きセンサーデータセットの必要性である。
大量のセンサデータをラベル付けすることは高価な作業であるため、教師なしおよび半教師なしの学習技術が出現している。
複数のデバイスから収集されたラベルのないデータを活用するコラボレーティブ・セルフスーパーバイズ・ラーニング(ColloSSL)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-01T21:05:05Z) - Generalized One-Class Learning Using Pairs of Complementary Classifiers [41.64645294104883]
1クラス学習は、単一のクラスでのみアノテーションが利用できるデータにモデルを適合させる古典的な問題である。
本稿では,一級学習の新たな目的を探求し,これを一般化一級識別サブスペース(GODS)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-24T18:52:05Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Invariant Feature Learning for Sensor-based Human Activity Recognition [11.334750079923428]
被験者やデバイス間で共有される共通情報を抽出する不変特徴学習フレームワーク(IFLF)を提案する。
実験により、IFLFは、一般的なオープンデータセットと社内データセットをまたいだ主題とデバイスディバージョンの両方を扱うのに効果的であることが示された。
論文 参考訳(メタデータ) (2020-12-14T21:56:17Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。