論文の概要: Deep Transfer-Learning for patient specific model re-calibration:
Application to sEMG-Classification
- arxiv url: http://arxiv.org/abs/2112.15019v1
- Date: Thu, 30 Dec 2021 11:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-04 02:25:53.464281
- Title: Deep Transfer-Learning for patient specific model re-calibration:
Application to sEMG-Classification
- Title(参考訳): 患者特定モデル再校正のためのDeep Transfer-Learning:sEMG分類への応用
- Authors: Stephan Johann Lehmler, Muhammad Saif-ur-Rehman, Tobias Glasmachers,
Ioannis Iossifidis
- Abstract要約: 機械学習ベースのsEMGデコーダは、主題固有のデータに基づいてトレーニングされるか、少なくとも各ユーザに対して個別に再分類される。
sEMGデータの可用性が限られているため、ディープラーニングモデルは過度に適合する傾向にある。
近年、ドメイン適応のための転写学習は、訓練時間を短縮して一般化品質を改善した。
- 参考スコア(独自算出の注目度): 0.2676349883103404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate decoding of surface electromyography (sEMG) is pivotal for
muscle-to-machine-interfaces (MMI) and their application for e.g.
rehabilitation therapy. sEMG signals have high inter-subject variability, due
to various factors, including skin thickness, body fat percentage, and
electrode placement. Therefore, obtaining high generalization quality of a
trained sEMG decoder is quite challenging. Usually, machine learning based sEMG
decoders are either trained on subject-specific data, or at least recalibrated
for each user, individually. Even though, deep learning algorithms produced
several state of the art results for sEMG decoding,however, due to the limited
amount of availability of sEMG data, the deep learning models are prone to
overfitting. Recently, transfer learning for domain adaptation improved
generalization quality with reduced training time on various machine learning
tasks. In this study, we investigate the effectiveness of transfer learning
using weight initialization for recalibration of two different pretrained deep
learning models on a new subjects data, and compare their performance to
subject-specific models. To the best of our knowledge, this is the first study
that thoroughly investigated weight-initialization based transfer learning for
sEMG classification and compared transfer learning to subject-specific
modeling. We tested our models on three publicly available databases under
various settings. On average over all settings, our transfer learning approach
improves 5~\%-points on the pretrained models without fine-tuning and
12~\%-points on the subject-specific models, while being trained on average
22~\% fewer epochs. Our results indicate that transfer learning enables faster
training on fewer samples than user-specific models, and improves the
performance of pretrained models as long as enough data is available.
- Abstract(参考訳): 表面筋電図(sEMG)の正確な復号化は、筋-機械-インタフェース(MMI)およびリハビリテーション療法への応用において重要である。
sEMG信号は、皮膚の厚み、体脂肪率、電極配置など様々な要因により、オブジェクト間のばらつきが高い。
したがって、訓練されたsEMGデコーダの高一般化品質を得るのは難しい。
通常、機械学習ベースのsegデコーダは、主題固有のデータに基づいてトレーニングされるか、あるいは少なくとも各ユーザのために個別に再調整される。
しかし、深層学習アルゴリズムは、sEMGデコーディングのいくつかの結果を生成するが、sEMGデータの可用性が限られているため、深層学習モデルは過度に適合する傾向にある。
近年、ドメイン適応のための伝達学習は、各種機械学習タスクのトレーニング時間を短縮し、一般化品質を改善している。
本研究では,2種類の事前訓練深層学習モデルの再校正のための重み初期化を用いた移動学習の有効性について検討し,その性能を被験者固有のモデルと比較した。
本研究は, semg分類における重み初期化に基づく伝達学習を徹底的に検討し, 伝達学習と主題特異的モデリングを比較した最初の研究である。
私たちは、さまざまな設定で3つの公開データベースでモデルをテストしました。
移動学習手法は,すべての設定において,微調整を伴わない事前学習モデルでは5~\%,被験者固有のモデルでは12~\%,平均22~\%のエポックで訓練されている。
以上の結果から,トランスファー学習は,ユーザ固有のモデルよりも少ないサンプルのトレーニングを高速化し,十分なデータが得られる限り,事前学習モデルの性能を向上させることが示唆された。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Exploring Learngene via Stage-wise Weight Sharing for Initializing Variable-sized Models [40.21274215353816]
本稿では,大規模な学習モデルから学習遺伝子と呼ばれる1つのコンパクトな部分を学習するLearngeneフレームワークを紹介する。
次に、対応するステージ情報を含むこれらの学習遺伝子層を拡張して、可変深さのモデルを初期化する。
ImageNet-1Kの実験では、SWSはスクラッチからトレーニングされた多くのモデルと比較して一貫したパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-04-25T06:04:34Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Beyond Human Data: Scaling Self-Training for Problem-Solving with Language Models [115.501751261878]
人為的なデータに基づく微調整言語モデル(LM)が普及している。
我々は、スカラーフィードバックにアクセス可能なタスクにおいて、人間のデータを超えることができるかどうか検討する。
ReST$EM$はモデルサイズに好適にスケールし、人間のデータのみによる微調整を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2023-12-11T18:17:43Z) - Reducing Intraspecies and Interspecies Covariate Shift in Traumatic
Brain Injury EEG of Humans and Mice Using Transfer Euclidean Alignment [4.264615907591813]
被験者間の高いばらつきは、現実世界の分類タスクのための機械学習モデルをデプロイすることに関して、大きな課題となる。
そのような場合、特定のデータセットで例外的なパフォーマンスを示す機械学習モデルは、同じタスクに対して異なるデータセットに適用した場合、必ずしも同様の習熟度を示すとは限らない。
本稿では,人間の生体医学的データの堅牢性に対処し,深層学習モデルの訓練を行うトランスファーユークリッドアライメントについて紹介する。
論文 参考訳(メタデータ) (2023-10-03T19:48:02Z) - Towards Foundation Models for Scientific Machine Learning:
Characterizing Scaling and Transfer Behavior [32.74388989649232]
我々は、科学機械学習(SciML)の応用において、事前学習をどのように利用できるかを研究する。
これらのモデルを微調整すると、モデルのサイズが大きくなるにつれてパフォーマンスが向上することがわかった。
論文 参考訳(メタデータ) (2023-06-01T00:32:59Z) - Core-set Selection Using Metrics-based Explanations (CSUME) for
multiclass ECG [2.0520503083305073]
高品質なデータを選択することで、ディープラーニングモデルの性能が向上することを示す。
実験の結果,9.67%,8.69%の精度とリコール改善が得られた。
論文 参考訳(メタデータ) (2022-05-28T19:36:28Z) - Model-Agnostic Multitask Fine-tuning for Few-shot Vision-Language
Transfer Learning [59.38343286807997]
未知タスクの視覚言語モデルのためのモデル非依存型マルチタスクファインチューニング(MAMF)を提案する。
モデルに依存しないメタラーニング(MAML)と比較して、MAMFは二段階最適化を捨て、一階勾配のみを使用する。
MAMFは5つのベンチマークデータセット上で、数ショットの転送学習において古典的な微調整法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-03-09T17:26:53Z) - Evaluating deep transfer learning for whole-brain cognitive decoding [11.898286908882561]
転送学習(TL)は、少数のサンプルを持つデータセットにおける深層学習(DL)モデルの性能向上に適している。
本稿では,全脳機能型磁気共鳴画像(fMRI)データから認識状態の復号化にDLモデルを適用するためのTLを評価した。
論文 参考訳(メタデータ) (2021-11-01T15:44:49Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - Deep transfer learning for improving single-EEG arousal detection [63.52264764099532]
2つのデータセットは、単一のEEGモデルでパフォーマンスが低下する原因となる、まったく同じ設定を含んでいない。
単チャンネル脳波データのためのアーキテクチャを構築するために,ベースラインモデルをトレーニングし,最初の2層を置き換える。
細調整戦略を用いて,本モデルはベースラインモデルと同等の性能を示し,同等の単一チャネルモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-10T16:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。