論文の概要: COCOA: Cross Modality Contrastive Learning for Sensor Data
- arxiv url: http://arxiv.org/abs/2208.00467v1
- Date: Sun, 31 Jul 2022 16:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 13:12:39.243471
- Title: COCOA: Cross Modality Contrastive Learning for Sensor Data
- Title(参考訳): COCOA:センサデータのためのクロスモーダルコントラスト学習
- Authors: Shohreh Deldari, Hao Xue, Aaqib Saeed, Daniel V. Smith, Flora D. Salim
- Abstract要約: COCOA(Cross mOdality Contrastive leArning)は、マルチセンサーデータから品質表現を学習するために、新しい目的関数を利用する自己教師型モデルである。
我々はCOCOAが他のすべてのアプローチよりも優れた分類性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 9.440900386313213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-Supervised Learning (SSL) is a new paradigm for learning discriminative
representations without labelled data and has reached comparable or even
state-of-the-art results in comparison to supervised counterparts. Contrastive
Learning (CL) is one of the most well-known approaches in SSL that attempts to
learn general, informative representations of data. CL methods have been mostly
developed for applications in computer vision and natural language processing
where only a single sensor modality is used. A majority of pervasive computing
applications, however, exploit data from a range of different sensor
modalities. While existing CL methods are limited to learning from one or two
data sources, we propose COCOA (Cross mOdality COntrastive leArning), a
self-supervised model that employs a novel objective function to learn quality
representations from multisensor data by computing the cross-correlation
between different data modalities and minimizing the similarity between
irrelevant instances. We evaluate the effectiveness of COCOA against eight
recently introduced state-of-the-art self-supervised models, and two supervised
baselines across five public datasets. We show that COCOA achieves superior
classification performance to all other approaches. Also, COCOA is far more
label-efficient than the other baselines including the fully supervised model
using only one-tenth of available labelled data.
- Abstract(参考訳): SSL(Self-Supervised Learning)はラベル付きデータなしで差別表現を学習するための新しいパラダイムであり、教師付きデータと比較して、同等あるいは最先端の結果に達した。
Contrastive Learning (CL)は、SSLにおいて一般的な情報表現を学習しようとする最もよく知られたアプローチの1つである。
CL法は主にコンピュータビジョンや自然言語処理の応用のために開発されており、単一のセンサモードしか使われていない。
しかし、普及型コンピューティングアプリケーションの大部分は、さまざまなセンサーモダリティのデータを活用している。
既存のCL手法は1つか2つのデータソースからの学習に限られるが、COCOA(Cross mOdality Contrastive leArning)は、異なるデータモダリティ間の相互相関を計算し、無関係なインスタンス間の類似性を最小化することにより、マルチセンサデータから品質表現を学習する、新しい客観的関数を利用する自己教師型モデルである。
我々は、最近導入された8つの最先端セルフ教師付きモデルと、5つの公開データセットにまたがる2つの教師付きベースラインに対するCOCOAの有効性を評価する。
我々はCOCOAが他のすべてのアプローチよりも優れた分類性能を発揮することを示す。
また、COCOAは、利用可能なラベル付きデータの10分の1しか使用しない完全教師付きモデルを含む、他のベースラインよりもはるかにラベル効率が高い。
関連論文リスト
- Consistency Based Weakly Self-Supervised Learning for Human Activity Recognition with Wearables [1.565361244756411]
センサデータから人間の活動を認識するための弱自己教師型アプローチについて述べる。
提案手法は, クラスタリングアルゴリズムが, 基礎となる人間の行動を特定し, 分類する上で, 同等のパフォーマンスを達成するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-07-29T06:29:21Z) - A Closer Look at Benchmarking Self-Supervised Pre-training with Image Classification [51.35500308126506]
自己教師付き学習(SSL)は、データ自体が監視を提供する機械学習アプローチであり、外部ラベルの必要性を排除している。
SSLの分類に基づく評価プロトコルがどのように相関し、異なるデータセットのダウンストリーム性能を予測するかを検討する。
論文 参考訳(メタデータ) (2024-07-16T23:17:36Z) - Deep Active Learning Using Barlow Twins [0.0]
畳み込みニューラルネットワーク(CNN)の一般化性能は、トレーニング画像の量、品質、多様性に大きく左右される。
タスクのアクティブラーニングの目標は、ラベルのないプールから最も情報に富んだサンプルを引き出すことである。
本稿では,すべてのデータセットに対する能動的学習手法であるBarlowTwins(DALBT)を用いたDeep Active Learningを提案する。
論文 参考訳(メタデータ) (2022-12-30T12:39:55Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - ColloSSL: Collaborative Self-Supervised Learning for Human Activity
Recognition [9.652822438412903]
堅牢なヒューマンアクティビティ認識モデル(HAR)のトレーニングにおける大きなボトルネックは、大規模ラベル付きセンサーデータセットの必要性である。
大量のセンサデータをラベル付けすることは高価な作業であるため、教師なしおよび半教師なしの学習技術が出現している。
複数のデバイスから収集されたラベルのないデータを活用するコラボレーティブ・セルフスーパーバイズ・ラーニング(ColloSSL)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-01T21:05:05Z) - Generalized One-Class Learning Using Pairs of Complementary Classifiers [41.64645294104883]
1クラス学習は、単一のクラスでのみアノテーションが利用できるデータにモデルを適合させる古典的な問題である。
本稿では,一級学習の新たな目的を探求し,これを一般化一級識別サブスペース(GODS)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-24T18:52:05Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。