論文の概要: Multi-view self-supervised learning for multivariate variable-channel
time series
- arxiv url: http://arxiv.org/abs/2307.09614v2
- Date: Thu, 20 Jul 2023 11:36:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 16:59:38.918757
- Title: Multi-view self-supervised learning for multivariate variable-channel
time series
- Title(参考訳): 多変量可変チャネル時系列の多視点自己教師型学習
- Authors: Thea Br\"usch, Mikkel N. Schmidt, Tommy S. Alstr{\o}m
- Abstract要約: 入力チャネルを個別に操作するための1つのエンコーダの学習を提案する。
次に、メッセージパッシングニューラルネットワークを使用して、チャネル間の単一の表現を抽出します。
TS2Vecの損失と組み合わせることで、ほとんどの設定で他のメソッドよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 1.094320514634939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Labeling of multivariate biomedical time series data is a laborious and
expensive process. Self-supervised contrastive learning alleviates the need for
large, labeled datasets through pretraining on unlabeled data. However, for
multivariate time series data, the set of input channels often varies between
applications, and most existing work does not allow for transfer between
datasets with different sets of input channels. We propose learning one encoder
to operate on all input channels individually. We then use a message passing
neural network to extract a single representation across channels. We
demonstrate the potential of this method by pretraining our model on a dataset
with six EEG channels and then fine-tuning it on a dataset with two different
EEG channels. We compare models with and without the message passing neural
network across different contrastive loss functions. We show that our method,
combined with the TS2Vec loss, outperforms all other methods in most settings.
- Abstract(参考訳): 多変量生物医学時系列データのラベル付けは、退屈で高価なプロセスである。
自己教師付きコントラスト学習は、ラベルなしデータの事前トレーニングを通じて、大きなラベル付きデータセットの必要性を軽減する。
しかし、多変量時系列データの場合、入力チャネルの集合はアプリケーションによって異なり、既存の作業の多くは異なる入力チャネルの集合を持つデータセット間の転送を許さない。
入力チャネルを個別に操作するための1つのエンコーダの学習を提案する。
次に、メッセージパッシングニューラルネットワークを使用して、チャネル間の単一の表現を抽出する。
6つのEEGチャネルを持つデータセット上でモデルを事前学習し、2つの異なるEEGチャネルを持つデータセット上でそれを微調整することで、この手法の可能性を示す。
我々は、異なるコントラスト損失関数にまたがるメッセージパッシングニューラルネットワークとモデルを比較する。
TS2Vecの損失と組み合わせることで、ほとんどの設定で他のメソッドよりも優れていることを示す。
関連論文リスト
- Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Physics-informed and Unsupervised Riemannian Domain Adaptation for Machine Learning on Heterogeneous EEG Datasets [53.367212596352324]
脳波信号物理を利用した教師なし手法を提案する。
脳波チャンネルをフィールド、ソースフリーなドメイン適応を用いて固定位置にマッピングする。
提案手法は脳-コンピュータインタフェース(BCI)タスクおよび潜在的なバイオマーカー応用におけるロバストな性能を示す。
論文 参考訳(メタデータ) (2024-03-07T16:17:33Z) - BIOT: Cross-data Biosignal Learning in the Wild [36.22753628246332]
バイオシグナーの現在のディープラーニングモデルは、通常、特定のデータセットと臨床設定に特化している。
メソッドモデルは汎用的で、異なるデータセットにわたる様々な生体信号学習設定に適用できる。
論文 参考訳(メタデータ) (2023-05-10T19:26:58Z) - Long-Short Temporal Co-Teaching for Weakly Supervised Video Anomaly
Detection [14.721615285883423]
弱教師付き異常検出(WS-VAD)はビデオレベルのアノテーションだけでVADモデルを学習することを目的とした課題である。
提案手法は,異なる期間の異常や微妙な異常に対処できる。
論文 参考訳(メタデータ) (2023-03-31T13:28:06Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - Scalable Classifier-Agnostic Channel Selection for MTSC [7.94957965474334]
現在の時系列分類アルゴリズムは、訓練と予測を完了するのに数百時間の計算時間を必要とする。
チャネル選択のための2つの方法を提案し,評価する。
チャネル選択は、最先端のMTSCアルゴリズムをトレーニングする前に前処理ステップとして適用される。
論文 参考訳(メタデータ) (2022-06-18T19:57:46Z) - Multimodal Masked Autoencoders Learn Transferable Representations [127.35955819874063]
単純でスケーラブルなネットワークアーキテクチャであるM3AE(Multimodal Masked Autoencoder)を提案する。
M3AEは、マスク付きトークン予測により、視覚と言語データの両方の統一エンコーダを学習する。
我々は,大規模な画像テキストデータセット上で訓練されたM3AEについて実証的研究を行い,M3AEが下流タスクによく伝達される一般化可能な表現を学習できることを見出した。
論文 参考訳(メタデータ) (2022-05-27T19:09:42Z) - Self-Supervised Multi-Object Tracking with Cross-Input Consistency [5.8762433393846045]
本稿では,ラベルなしビデオのみを対象とする頑健なマルチオブジェクト追跡(MOT)モデルを訓練するための自己教師付き学習手法を提案する。
次に、各入力に対して独立してRNNモデルを適用することで、そのシーケンス内のトラックを計算し、2つの入力に対して一貫したトラックを生成するようにモデルを訓練する。
論文 参考訳(メタデータ) (2021-11-10T21:00:34Z) - Multi-Channel End-to-End Neural Diarization with Distributed Microphones [53.99406868339701]
EENDのTransformerエンコーダを,マルチチャネル入力を処理する2種類のエンコーダに置き換える。
また,単一チャンネル記録のみを用いたモデル適応手法を提案する。
論文 参考訳(メタデータ) (2021-10-10T03:24:03Z) - Learning from Heterogeneous EEG Signals with Differentiable Channel
Reordering [51.633889765162685]
CHARMは、一貫性のない入力チャネルをまたいだ単一のニューラルネットワークのトレーニング方法である。
我々は4つの脳波分類データセットの実験を行い、CHARMの有効性を実証した。
論文 参考訳(メタデータ) (2020-10-21T12:32:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。