論文の概要: mulEEG: A Multi-View Representation Learning on EEG Signals
- arxiv url: http://arxiv.org/abs/2204.03272v1
- Date: Thu, 7 Apr 2022 07:52:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-09 03:10:24.852145
- Title: mulEEG: A Multi-View Representation Learning on EEG Signals
- Title(参考訳): mulEEG:脳波信号を用いた多視点表現学習
- Authors: Vamsi Kumar, Likith Reddy, Shivam Kumar Sharma, Kamalakar Dadi,
Chiranjeevi Yarra, Bapi S. Raju and Srijithesh Rajendran
- Abstract要約: 教師なし脳波表現学習のためのマルチビュー自己教師方式(mulEEG)を提案する。
提案手法では,複数のビューで利用可能な補完情報を効果的に活用し,より良い表現を学習する。
- 参考スコア(独自算出の注目度): 4.253725298521475
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Modeling effective representations using multiple views that positively
influence each other is challenging, and the existing methods perform poorly on
Electroencephalogram (EEG) signals for sleep-staging tasks. In this paper, we
propose a novel multi-view self-supervised method (mulEEG) for unsupervised EEG
representation learning. Our method attempts to effectively utilize the
complementary information available in multiple views to learn better
representations. We introduce diverse loss that further encourages
complementary information across multiple views. Our method with no access to
labels beats the supervised training while outperforming multi-view baseline
methods on transfer learning experiments carried out on sleep-staging tasks. We
posit that our method was able to learn better representations by using
complementary multi-views.
- Abstract(参考訳): 相互に正の影響を与え合う複数の視点を用いた効果的な表現のモデル化は困難であり、既存の手法では睡眠時課題の脳波信号に乏しい。
本稿では、教師なし脳波表現学習のための新しいマルチビュー自己教師方式(mulEEG)を提案する。
提案手法では,複数のビューで利用可能な補完情報を効果的に活用し,より良い表現を学習する。
我々は,複数の視点にまたがる補完的情報を促進する多様な損失を導入する。
本手法は,睡眠課題におけるトランスファー学習実験において,マルチビューベースライン法を上回りながら教師付きトレーニングに勝っている。
本手法は相補的マルチビューを用いてより良い表現を学習できることを実証する。
関連論文リスト
- Multi-Grained Contrast for Data-Efficient Unsupervised Representation Learning [10.630297877530614]
教師なし表現学習のための新しいマルチグラインドコントラスト法(MGC)を提案する。
具体的には、ポジティブビュー間の微妙な多重粒度対応を構築し、その上で、対応によって多粒度コントラストを行い、より一般的な教師なし表現を学習する。
提案手法は,オブジェクト検出,インスタンスセグメンテーション,シーン解析,セマンティックセグメンテーション,キーポイント検出など,広範囲なダウンストリームタスクにおいて,既存の最先端手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-07-02T07:35:21Z) - Visual In-Context Learning for Large Vision-Language Models [62.5507897575317]
大規模視覚言語モデル(LVLM)では、言語間相互作用や表現格差の課題により、ICL(In-Context Learning)の有効性が制限されている。
本稿では,視覚的記述型検索,意図的画像要約,意図的記述型合成を含む新しい視覚的記述型学習(VICL)手法を提案する。
提案手法は'Retrieval & Rerank'パラダイムを用いて画像を検索し,タスク意図とタスク固有の視覚的パーシングで画像を要約し,言語による実演を構成する。
論文 参考訳(メタデータ) (2024-02-18T12:43:38Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Towards Efficient and Effective Self-Supervised Learning of Visual
Representations [41.92884427579068]
自己監督は視覚的表現学習のための提案的な方法として現れてきた。
より高速に収束する適切な補助タスクを用いて,これらの手法を強化することを提案する。
提案手法は回転予測のタスクを利用して,既存の最先端手法の効率を向上させる。
論文 参考訳(メタデータ) (2022-10-18T13:55:25Z) - SW-VAE: Weakly Supervised Learn Disentangled Representation Via Latent
Factor Swapping [12.012459418829732]
SW-VAE という名称の弱い教師付きトレーニング手法を提案し,データセットの生成因子を用いて,2組の入力観測を教師信号として組み込む。
いくつかのデータセットで示されるように、我々のモデルは表現の非絡み付けタスクにおける最先端(SOTA)手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-09-21T19:34:35Z) - Evaluation of Self-taught Learning-based Representations for Facial
Emotion Recognition [62.30451764345482]
この研究は、顔の感情認識のための自己学習の概念を通じて得られた教師なし表現を生成するための様々な戦略を記述する。
このアイデアは、オートエンコーダの初期化、アーキテクチャ、トレーニングデータを変化させることで、多様性を促進する補完的な表現を作ることである。
Jaffe と Cohn-Kanade のデータセットに対する残余のサブジェクトアウトプロトコルによる実験結果から,提案した多種多様な表現に基づく FER 手法が最先端のアプローチと好適に比較できることが示唆された。
論文 参考訳(メタデータ) (2022-04-26T22:48:15Z) - Contrastive Learning from Demonstrations [0.0]
これらの表現は、ピック・アンド・プレイスを含むいくつかのロボット作業の模倣に適用可能であることを示す。
我々は、タスク関連情報を強化するためにコントラスト学習を適用することで、最近提案された自己教師付き学習アルゴリズムを最適化する。
論文 参考訳(メタデータ) (2022-01-30T13:36:07Z) - Self-attention Multi-view Representation Learning with
Diversity-promoting Complementarity [4.213976613562574]
マルチビュー学習は、マルチビューデータ間のコンセンサスと/または相補性を利用して、より良いパフォーマンスでモデルを生成する。
本稿では,多目的相補性を有する自己注意型多視点ネットワークという,教師付き多視点表現学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-01T11:17:02Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Self-supervised Co-training for Video Representation Learning [103.69904379356413]
実例に基づく情報ノイズコントラスト推定訓練に意味クラス正の付加を施すことの利点について検討する。
本稿では,インフォネッションNCEの損失を改善するための,自己指導型協調学習手法を提案する。
本研究では,2つの下流タスク(行動認識とビデオ検索)における学習表現の質を評価する。
論文 参考訳(メタデータ) (2020-10-19T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。