論文の概要: How Much Data is Enough? Optimization of Data Collection for Artifact Detection in EEG Recordings
- arxiv url: http://arxiv.org/abs/2411.11886v2
- Date: Wed, 20 Nov 2024 10:38:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:09:29.390758
- Title: How Much Data is Enough? Optimization of Data Collection for Artifact Detection in EEG Recordings
- Title(参考訳): 脳波記録におけるアーチファクト検出のためのデータ収集の最適化
- Authors: Lu Wang-Nöth, Philipp Heiler, Hai Huang, Daniel Lichtenstern, Alexandra Reichenbach, Luis Flacke, Linus Maisch, Helmut Mayer,
- Abstract要約: 深層学習に基づくアーティファクト検出を用いたデータ指向データ収集設計のための最適化手法を提案する。
人工物タスクの数を12から3に減らし、等尺収縮タスクの繰り返しを10から3に減らし、時には1に減らした。
- 参考スコア(独自算出の注目度): 35.65657694684476
- License:
- Abstract: Objective. Electroencephalography (EEG) is a widely used neuroimaging technique known for its cost-effectiveness and user-friendliness. However, various artifacts, particularly biological artifacts like Electromyography (EMG) signals, lead to a poor signal-to-noise ratio, limiting the precision of analyses and applications. The currently reported EEG data cleaning performance largely depends on the data used for validation, and in the case of machine learning approaches, also on the data used for training. The data are typically gathered either by recruiting subjects to perform specific artifact tasks or by integrating existing datasets. Prevailing approaches, however, tend to rely on intuitive, concept-oriented data collection with minimal justification for the selection of artifacts and their quantities. Given the substantial costs associated with biological data collection and the pressing need for effective data utilization, we propose an optimization procedure for data-oriented data collection design using deep learning-based artifact detection. Approach. We apply a binary classification between artifact epochs (time intervals containing artifacts) and non-artifact epochs (time intervals containing no artifact) using three different neural architectures. Our aim is to minimize data collection efforts while preserving the cleaning efficiency. Main results. We were able to reduce the number of artifact tasks from twelve to three and decrease repetitions of isometric contraction tasks from ten to three or sometimes even just one. Significance. Our work addresses the need for effective data utilization in biological data collection, offering a systematic and dynamic quantitative approach. By providing clear justifications for the choices of artifacts and their quantity, we aim to guide future studies toward more effective and economical data collection in EEG and EMG research.
- Abstract(参考訳): 目的。
脳波(Electroencephalography、EEG)は、その費用対効果とユーザフレンドリーさで広く使われている神経イメージング技術である。
しかし、様々な人工物、特にエレクトロミノグラフィー(EMG)信号のような生物学的人工物は、信号と雑音の比率が低く、分析と応用の精度が制限される。
現在報告されているEEGデータクリーニングのパフォーマンスは、バリデーションに使用されるデータと、マシンラーニングアプローチの場合、トレーニングに使用されるデータに大きく依存しています。
データは典型的には、特定のアーティファクトタスクを実行するために被験者を募集するか、既存のデータセットを統合することによって収集される。
しかし、一般的なアプローチは、アーティファクトの選択とその量に対して最小限の正当性を持つ直感的で概念指向のデータ収集に依存する傾向にある。
本稿では,生物データ収集と効率的なデータ利用の必要性を考慮し,深層学習に基づく人工物検出を用いたデータ収集設計のための最適化手法を提案する。
アプローチ。
3つの異なるニューラルネットワークを用いて人工物エポック(人工物を含む時間間隔)と非人工物エポック(人工物を含む時間間隔)のバイナリ分類を適用した。
我々の目的は、クリーニング効率を保ちながら、データ収集の労力を最小限にすることである。
主な結果。
人工物タスクの数を12から3に減らし、等尺収縮タスクの繰り返しを10から3に減らし、時には1に減らした。
重要なこと。
我々の研究は、生物学的データ収集における効果的なデータ利用の必要性に対処し、体系的でダイナミックな定量的アプローチを提供する。
アーティファクトの選択とその量に対する明確な正当性を提供することにより、脳波及びEMG研究におけるより効果的で経済的なデータ収集に向けた今後の研究を導くことを目的としている。
関連論文リスト
- An Efficient Contrastive Unimodal Pretraining Method for EHR Time Series Data [35.943089444017666]
本稿では,長期臨床経過データに適した比較事前学習法を提案する。
本モデルでは, 臨床医が患者の症状についてより深い知見を得られるように, 欠損測定をインプットする能力を示す。
論文 参考訳(メタデータ) (2024-10-11T19:05:25Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - The Why, When, and How to Use Active Learning in Large-Data-Driven 3D
Object Detection for Safe Autonomous Driving: An Empirical Exploration [1.2815904071470705]
エントロピークエリは、リソース制約のある環境でモデル学習を強化するデータを選択するための有望な戦略である。
この結果から,エントロピークエリは資源制約のある環境でのモデル学習を促進するデータ選択に有望な戦略であることが示唆された。
論文 参考訳(メタデータ) (2024-01-30T00:14:13Z) - D3A-TS: Denoising-Driven Data Augmentation in Time Series [0.0]
本研究は,分類と回帰問題に対する時系列におけるデータ拡張のための異なる手法の研究と分析に焦点をあてる。
提案手法は拡散確率モデルを用いており、近年画像処理の分野で成功している。
その結果、この手法が、分類と回帰モデルを訓練するための合成データを作成する上で、高い有用性を示している。
論文 参考訳(メタデータ) (2023-12-09T11:37:07Z) - Amplifying Pathological Detection in EEG Signaling Pathways through
Cross-Dataset Transfer Learning [10.212217551908525]
実世界の病理分類課題におけるデータとモデルスケーリングとデータセット間の知識伝達の有効性について検討する。
ネガティブトランスファーの可能性の課題を特定し、いくつかの重要なコンポーネントの重要性を強調する。
以上の結果から,小規模で汎用的なモデル(ShallowNetなど)は単一データセット上では良好に動作するが,大規模なモデル(TCNなど)では,大規模かつ多様なデータセットからの転送や学習がより優れていることが示唆された。
論文 参考訳(メタデータ) (2023-09-19T20:09:15Z) - STAR: Boosting Low-Resource Information Extraction by Structure-to-Text
Data Generation with Large Language Models [56.27786433792638]
STARは大規模言語モデル(LLM)を利用してデータインスタンスを合成するデータ生成手法である。
我々は、初期データインスタンスを取得するための詳細なステップバイステップ命令を設計する。
実験の結果,STARが生成したデータは,低リソースイベント抽出および関係抽出タスクの性能を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-24T12:15:19Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Improving the efficacy of Deep Learning models for Heart Beat detection
on heterogeneous datasets [0.0]
ヘテロジニアスデータセットにディープラーニングモデルを適用する際の問題点について検討する。
本研究では,健常者からのデータに基づいてトレーニングしたモデルの性能が,心疾患患者に適用した場合に低下することを示す。
次に、異なるデータセットにモデルを適応させるためのTransfer Learningの使用を評価します。
論文 参考訳(メタデータ) (2021-10-26T14:26:55Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。