論文の概要: RL-BioAug: Label-Efficient Reinforcement Learning for Self-Supervised EEG Representation Learning
- arxiv url: http://arxiv.org/abs/2601.13964v1
- Date: Tue, 20 Jan 2026 13:38:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.329587
- Title: RL-BioAug: Label-Efficient Reinforcement Learning for Self-Supervised EEG Representation Learning
- Title(参考訳): RL-BioAug:自己監督型脳波表現学習のためのラベル効率の良い強化学習
- Authors: Cheol-Hui Lee, Hwa-Yeon Lee, Dong-Joo Kim,
- Abstract要約: ラベル効率強化学習(RL)エージェントを利用して最適な拡張ポリシーを自律的に決定するフレームワークであるRL-BioAugを提案する。
実験の結果,RL-BioAugはランダム選択戦略よりも有意に優れていた。
- 参考スコア(独自算出の注目度): 1.7893310647034184
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The quality of data augmentation serves as a critical determinant for the performance of contrastive learning in EEG tasks. Although this paradigm is promising for utilizing unlabeled data, static or random augmentation strategies often fail to preserve intrinsic information due to the non-stationarity of EEG signals where statistical properties change over time. To address this, we propose RL-BioAug, a framework that leverages a label-efficient reinforcement learning (RL) agent to autonomously determine optimal augmentation policies. While utilizing only a minimal fraction (10\%) of labeled data to guide the agent's policy, our method enables the encoder to learn robust representations in a strictly self-supervised manner. Experimental results demonstrate that RL-BioAug significantly outperforms the random selection strategy, achieving substantial improvements of 9.69\% and 8.80\% in Macro-F1 score on the Sleep-EDFX and CHB-MIT datasets, respectively. Notably, this agent mainly chose optimal strategies for each task -- for example, Time Masking with a 62\% probability for sleep stage classification and Crop \& Resize with a 77\% probability for seizure detection. Our framework suggests its potential to replace conventional heuristic-based augmentations and establish a new autonomous paradigm for data augmentation. The source code is available at \href{https://github.com/dlcjfgmlnasa/RL-BioAug}{https://github.com/dlcjfgmlnasa/RL-BioAug}.
- Abstract(参考訳): データ拡張の質は、EEGタスクにおける対照的な学習のパフォーマンスにとって重要な決定要因となる。
このパラダイムはラベルのないデータを利用する上で有望であるが、統計特性が経時的に変化する脳波信号の非定常性のため、静的またはランダムな拡張戦略は本質的な情報の保存に失敗することが多い。
そこで本稿では,ラベル効率向上学習(RL)エージェントを利用して最適な拡張ポリシを自律的に決定するフレームワークであるRL-BioAugを提案する。
エージェントのポリシーを導出するためにラベル付きデータの最小部分 (10 %) しか利用していないが、本手法ではエンコーダが厳密な自己管理で堅牢な表現を学習することができる。
実験の結果、RL-BioAugはランダム選択戦略を著しく上回り、Sleep-EDFXおよびCHB-MITデータセット上でのマクロF1スコアの9.69\%と8.80\%を大幅に改善した。
特に、このエージェントは、主に各タスクに最適な戦略を選択した。例えば、睡眠段階分類の確率62\%のタイムマスキングと、発作検出の確率77\%のクロップ・アンド・リサイズである。
我々のフレームワークは、従来のヒューリスティックベースの拡張を置き換え、データ拡張のための新しい自律パラダイムを確立する可能性を示唆している。
ソースコードは \href{https://github.com/dlcjfgmlnasa/RL-BioAug}{https://github.com/dlcjfgmlnasa/RL-BioAug} で公開されている。
関連論文リスト
- Towards Agentic Self-Learning LLMs in Search Environment [36.158823302039195]
自己学習が人間の計算したデータセットや事前定義されたルールベースの報酬に頼ることなく、LSMベースのエージェントをスケールできるかどうかを検討する。
生成的リワードモデル(GRM)の報酬は、オープンドメイン学習のための厳密なルールベースの信号より優れている。
完全閉ループ・マルチロール強化学習フレームワークである textbfAgentic Self-Learning (ASL) を提案する。
論文 参考訳(メタデータ) (2025-10-16T03:11:56Z) - Artificial Liver Classifier: A New Alternative to Conventional Machine Learning Models [3.88465206388773]
本稿では,ヒト肝解毒機能に触発された新しい教師あり学習モデルであるArtificial Liver(ALC)を紹介する。
ALCの特徴は、その単純さ、スピード、多クラス分類問題に対処する際のオーバーフィッティングの削減と有効性である。
提案したALCを,Iris Flower,Breast Cancer Wisconsin,Wine,Voice Gender,MNISTの5つのベンチマークデータセットで評価した。
論文 参考訳(メタデータ) (2025-01-14T12:42:01Z) - MLAE: Masked LoRA Experts for Visual Parameter-Efficient Fine-Tuning [45.93128932828256]
Masked LoRA Experts (MLAE) は、視覚的PEFTにマスキングの概念を適用する革新的なアプローチである。
本手法は,低ランク行列を独立したランク1サブマトリクスに変換するセル分解戦略を組み込んだものである。
MLAEは,VTAB-1kベンチマークでは平均78.8%,FGVCベンチマークでは90.9%の精度で,新しい最先端(SOTA)性能を実現する。
論文 参考訳(メタデータ) (2024-05-29T08:57:23Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - SelectAugment: Hierarchical Deterministic Sample Selection for Data
Augmentation [72.58308581812149]
そこで我々は,SelectAugmentと呼ばれる効果的な手法を提案し,決定論的かつオンラインに拡張するサンプルを選択する。
具体的には、各バッチにおいて、まず増分比率を決定し、次にこの比で各トレーニングサンプルを増分するかを決定する。
これにより、サンプルを増量する際のランダム性による負の効果を効果的に軽減し、DAの有効性を向上させることができる。
論文 参考訳(メタデータ) (2021-12-06T08:38:38Z) - Deceive D: Adaptive Pseudo Augmentation for GAN Training with Limited
Data [125.7135706352493]
GAN(Generative Adversarial Network)は、高忠実度画像を合成するために、訓練に十分なデータを必要とする。
近年の研究では、差別者の過度な適合により、限られたデータでGANを訓練することは困難であることが示されている。
本稿では,APA (Adaptive Pseudo Augmentation) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-12T18:13:45Z) - Memory-Efficient Semi-Supervised Continual Learning: The World is its
Own Replay Buffer [26.85498630152788]
リハーサルは、クラスインクリメンタルな連続学習にとって重要なコンポーネントですが、十分なメモリ予算が必要です。
本研究は,エージェントの環境からラベルのないデータを活用することで,メモリ予算を大幅に削減できるかどうかを検討する。
本稿では, 疑似ラベル付け, 整合正則化, OoD(Out-of-Distribution)検出, 知識蒸留により, この環境下での忘れを少なくする戦略を示す。
論文 参考訳(メタデータ) (2021-01-23T17:23:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。