論文の概要: Towards Sleep Scoring Generalization Through Self-Supervised
Meta-Learning
- arxiv url: http://arxiv.org/abs/2207.13801v1
- Date: Wed, 27 Jul 2022 21:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-29 12:39:54.302458
- Title: Towards Sleep Scoring Generalization Through Self-Supervised
Meta-Learning
- Title(参考訳): 自己教師付きメタラーニングによる睡眠スコアの一般化に向けて
- Authors: Abdelhak Lemkhenter and Paolo Favaro
- Abstract要約: 本稿では,自己指導型学習に基づく睡眠スコアリングのためのメタラーニング手法を提案する。
我々は,自己教師付き学習段階を取り入れて,モデル非依存メタラーニング(MAML)フレームワーク上に手法を構築した。
我々は,S2MAMLが複数のデータセットにおいてMAMLを大幅に上回ることを示す。
- 参考スコア(独自算出の注目度): 27.913052825303097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we introduce a novel meta-learning method for sleep scoring
based on self-supervised learning. Our approach aims at building models for
sleep scoring that can generalize across different patients and recording
facilities, but do not require a further adaptation step to the target data.
Towards this goal, we build our method on top of the Model Agnostic
Meta-Learning (MAML) framework by incorporating a self-supervised learning
(SSL) stage, and call it S2MAML. We show that S2MAML can significantly
outperform MAML. The gain in performance comes from the SSL stage, which we
base on a general purpose pseudo-task that limits the overfitting to the
subject-specific patterns present in the training dataset. We show that S2MAML
outperforms standard supervised learning and MAML on the SC, ST, ISRUC, UCD and
CAP datasets.
- Abstract(参考訳): 本研究では,自己指導型学習に基づく睡眠スコアリングのためのメタラーニング手法を提案する。
本手法は,様々な患者や記録施設にまたがる睡眠スコアのモデルを構築することを目的としているが,対象データへのさらなる適応ステップは必要としない。
この目標に向けて,自己教師付き学習(SSL)段階を取り入れて,モデルに依存しないメタラーニング(MAML)フレームワーク上にメソッドを構築し,それをS2MAMLと呼ぶ。
我々は,S2MAMLがMAMLを著しく上回ることを示す。
パフォーマンスの向上はsslステージから来ており、トレーニングデータセットに存在する主題固有のパターンへのオーバーフィットを制限する汎用擬似タスクをベースとしています。
SC, ST, ISRUC, UCD, CAPデータセット上で, S2MAMLが標準教師あり学習およびMAMLより優れていることを示す。
関連論文リスト
- Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - MAML-en-LLM: Model Agnostic Meta-Training of LLMs for Improved In-Context Learning [43.512739869120125]
大規模言語モデル(LLM)のメタトレーニング手法であるMAML-en-LLMを提案する。
MAML-en-LLMは、解離したタスクでうまく機能するだけでなく、目に見えないタスクに適応する真の一般化可能なパラメータを学習することができる。
我々は、MAML-en-LLMが、目に見えないドメインと見えないドメインのトレーニングデータが少ない設定において、ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-19T04:49:42Z) - Meta-Learning with Self-Improving Momentum Target [72.98879709228981]
メタラーナーの性能を向上させるために,SiMT(Self-improving Momentum Target)を提案する。
SiMTはメタラーナーの時間アンサンブルから適応してターゲットモデルを生成する。
我々は、SiMTが幅広いメタ学習手法と組み合わせることで、大きなパフォーマンス向上をもたらすことを示す。
論文 参考訳(メタデータ) (2022-10-11T06:45:15Z) - Sharp-MAML: Sharpness-Aware Model-Agnostic Meta Learning [71.26635165491105]
我々はシャープ・MAMLと呼ぶシャープネスを意識したMAMLアプローチを開発した。
Sharp-MAMLとその計算効率が,既存のMAMLベースラインより優れていることを実証的に実証した。
これは、二段階学習の文脈において、シャープネスを意識した最小化に関する最初の経験的および理論的研究である。
論文 参考訳(メタデータ) (2022-06-08T16:20:11Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - ST-MAML: A Stochastic-Task based Method for Task-Heterogeneous
Meta-Learning [12.215288736524268]
本稿では,モデルに依存しないメタラーニング(MAML)を複数のタスク分布から学習するための新しい手法ST-MAMLを提案する。
そこで本研究では,ST-MAMLが2つの画像分類タスク,1つの曲線評価ベンチマーク,1つの画像補完問題,および実世界の温度予測アプリケーションにおいて,最先端の映像分類タスクに適合または優れることを示す。
論文 参考訳(メタデータ) (2021-09-27T18:54:50Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - On Fast Adversarial Robustness Adaptation in Model-Agnostic
Meta-Learning [100.14809391594109]
モデルに依存しないメタラーニング(MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
メタモデルの一般化力にもかかわらず、マルチショット学習においてMDLがいかに敵対的堅牢性を維持することができるかは明らかではない。
本稿では,ラベルなしデータ拡張,高速な攻撃生成,計算量軽微な微調整を可能にする,汎用的かつ最適化が容易なロバストネス正規化メタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-20T22:03:04Z) - A Nested Bi-level Optimization Framework for Robust Few Shot Learning [10.147225934340877]
NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
論文 参考訳(メタデータ) (2020-11-13T06:41:22Z) - BI-MAML: Balanced Incremental Approach for Meta Learning [9.245355087256314]
本稿では,複数のタスクを学習するための新しいバランス付きインクリメンタルモデルAgnostic Meta Learningシステム(BI-MAML)を提案する。
本手法では,従来のタスクを忘れることなく,新たなタスクにモデルを漸進的に適応させるメタ更新ルールを実装している。
本システムでは,数ショットでメタ更新を行い,その達成に成功している。
論文 参考訳(メタデータ) (2020-06-12T18:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。