論文の概要: BagStacking: An Integrated Ensemble Learning Approach for Freezing of
Gait Detection in Parkinson's Disease
- arxiv url: http://arxiv.org/abs/2402.17783v1
- Date: Sat, 24 Feb 2024 04:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 17:34:48.095706
- Title: BagStacking: An Integrated Ensemble Learning Approach for Freezing of
Gait Detection in Parkinson's Disease
- Title(参考訳): BagStacking:パーキンソン病における歩行検出の凍結のための統合型アンサンブル学習アプローチ
- Authors: Seffi Cohen, Lior Rokach
- Abstract要約: BagStackingは、パーキンソン病(PD)における歩行凍結(FOG)の検出を高めるために設計された新しいアンサンブル学習法である
BagStackingは、バッグングとスタックングの原則に基づいて、バッグングのブートストラップサンプリングによる分散低減のメリットを達成することを目的としている。
実験による評価は、他の最先端の機械学習手法よりも大幅に改善されている。
- 参考スコア(独自算出の注目度): 11.869755575945664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces BagStacking, a novel ensemble learning method designed
to enhance the detection of Freezing of Gait (FOG) in Parkinson's Disease (PD)
by using a lower-back sensor to track acceleration. Building on the principles
of bagging and stacking, BagStacking aims to achieve the variance reduction
benefit of bagging's bootstrap sampling while also learning sophisticated
blending through stacking. The method involves training a set of base models on
bootstrap samples from the training data, followed by a meta-learner trained on
the base model outputs and true labels to find an optimal aggregation scheme.
The experimental evaluation demonstrates significant improvements over other
state-of-the-art machine learning methods on the validation set. Specifically,
BagStacking achieved a MAP score of 0.306, outperforming LightGBM (0.234) and
classic Stacking (0.286). Additionally, the run-time of BagStacking was
measured at 3828 seconds, illustrating an efficient approach compared to
Regular Stacking's 8350 seconds. BagStacking presents a promising direction for
handling the inherent variability in FOG detection data, offering a robust and
scalable solution to improve patient care in PD.
- Abstract(参考訳): 本稿では,Parkinson's Disease (PD) における歩行凍結(FOG)の検出を,低バックセンサを用いて追跡する新しいアンサンブル学習手法であるBagStackingを紹介する。
bagstackingは,バッキングとスタックの原則に基づいて,バッキングのブートストラップサンプリングによる分散低減効果の実現と,スタックによる高度なブレンドの学習を目指している。
この方法は、トレーニングデータからブートストラップサンプルにベースモデルのセットをトレーニングし、その後、ベースモデル出力でトレーニングされたメタリーナーと、最適なアグリゲーションスキームを見つけるための真のラベルを含む。
実験による評価は、検証セット上の他の最先端の機械学習手法よりも大幅に改善されている。
具体的には、bagstacking は 0.306 のマップスコアを達成し、lightgbm (0.234) とclassic stacking (0.286) を上回った。
さらに、バッグスタッキングの実行時間は3828秒で測定され、通常のスタッキングの8350秒と比較して効率的なアプローチを示した。
BagStackingはFOG検出データに固有の変数を扱うための有望な方向を示し、PDにおける患者のケアを改善する堅牢でスケーラブルなソリューションを提供する。
関連論文リスト
- Sample Weight Estimation Using Meta-Updates for Online Continual
Learning [7.832189413179361]
OMSI(Online Meta-learning for Sample Importance)戦略は、オンラインCLストリームにおけるミニバッチのサンプル重量を近似する。
OMSIは、制御されたノイズラベル付きデータストリームにおける学習と保持の精度を向上させる。
論文 参考訳(メタデータ) (2024-01-29T09:04:45Z) - Class-Wise Buffer Management for Incremental Object Detection: An
Effective Buffer Training Strategy [11.109975137910881]
クラスインクリメンタル学習は、既存のモデルに目に見えないクラスインスタンスを継続的に追加する際に発生する問題を解決することを目的としている。
オブジェクト検出に最適化されたリプレイバッファを生成する効果的なバッファトレーニング戦略(eBTS)を導入する。
論文 参考訳(メタデータ) (2023-12-14T17:10:09Z) - KAKURENBO: Adaptively Hiding Samples in Deep Neural Network Training [2.8804804517897935]
深層ニューラルネットワークのトレーニングにおいて,最も重要でないサンプルを隠蔽する手法を提案する。
我々は,学習プロセス全体への貢献に基づいて,与えられたエポックを除外するサンプルを適応的に見つける。
本手法は, ベースラインと比較して, 最大22%の精度でトレーニング時間を短縮できる。
論文 参考訳(メタデータ) (2023-10-16T06:19:29Z) - FABind: Fast and Accurate Protein-Ligand Binding [127.7790493202716]
$mathbfFABind$はポケット予測とドッキングを組み合わせたエンドツーエンドモデルで、正確で高速なタンパク質-リガンド結合を実現する。
提案モデルでは,既存手法と比較して有効性と効率性に強い利点が示される。
論文 参考訳(メタデータ) (2023-10-10T16:39:47Z) - BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - Assessor-Guided Learning for Continual Environments [17.181933166255448]
本稿では,継続的学習のための評価者指導型学習戦略を提案する。
評価者は、学習過程の方向とペースを制御することにより、基礎学習者の学習過程を案内する。
評価器はメタ学習方式でメタオブジェクトを用いて訓練され、ベース学習者の学習プロセスが促進される。
論文 参考訳(メタデータ) (2023-03-21T06:45:14Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。