論文の概要: Adapting Tensor Kernel Machines to Enable Efficient Transfer Learning for Seizure Detection
- arxiv url: http://arxiv.org/abs/2512.02626v1
- Date: Tue, 02 Dec 2025 10:36:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.831345
- Title: Adapting Tensor Kernel Machines to Enable Efficient Transfer Learning for Seizure Detection
- Title(参考訳): シーズール検出のための効率的な伝達学習を可能にするテンソルカーネルマシンの適応
- Authors: Seline J. S. de Rooij, Borbála Hunyadi,
- Abstract要約: 本稿では,テンソルカーネルマシンを用いた効率的な転送学習手法を提案する。
本手法は適応型SVMからインスピレーションを得て,ソースから正規化により'知識'モデルを'適応'モデルに転送する。
提案手法の有効性を実証するため,アダプティブテンソルカーネルマシン (Adapt-TKM) を用いて脳波検出を行う。
- 参考スコア(独自算出の注目度): 5.32836690371986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning aims to optimize performance in a target task by learning from a related source problem. In this work, we propose an efficient transfer learning method using a tensor kernel machine. Our method takes inspiration from the adaptive SVM and hence transfers 'knowledge' from the source to the 'adapted' model via regularization. The main advantage of using tensor kernel machines is that they leverage low-rank tensor networks to learn a compact non-linear model in the primal domain. This allows for a more efficient adaptation without adding more parameters to the model. To demonstrate the effectiveness of our approach, we apply the adaptive tensor kernel machine (Adapt-TKM) to seizure detection on behind-the-ear EEG. By personalizing patient-independent models with a small amount of patient-specific data, the patient-adapted model (which utilizes the Adapt-TKM), achieves better performance compared to the patient-independent and fully patient-specific models. Notably, it is able to do so while requiring around 100 times fewer parameters than the adaptive SVM model, leading to a correspondingly faster inference speed. This makes the Adapt-TKM especially useful for resource-constrained wearable devices.
- Abstract(参考訳): Transfer Learningは、関連するソース問題から学習することで、ターゲットタスクのパフォーマンスを最適化することを目的としている。
本研究では,テンソルカーネルマシンを用いた効率的な転送学習手法を提案する。
本手法は適応型SVMからインスピレーションを得て,ソースから正規化により'知識'モデルを'適応'モデルに転送する。
テンソルカーネルマシンを使用する主な利点は、低ランクテンソルネットワークを利用して原始領域でコンパクトな非線形モデルを学ぶことである。
これにより、モデルにより多くのパラメータを追加することなく、より効率的な適応が可能になる。
提案手法の有効性を実証するため,アダプティブテンソルカーネルマシン (Adapt-TKM) を用いて脳波検出を行う。
患者非依存モデルを少量の患者固有のデータでパーソナライズすることにより、患者適応モデル(Adapt-TKM)は、患者非依存モデルや完全に患者固有のモデルよりも優れたパフォーマンスを達成する。
特に、適応的なSVMモデルよりも約100倍少ないパラメータが必要であり、それに応じて高速な推論速度が得られる。
これにより、Adapt-TKMは特にリソース制約のあるウェアラブルデバイスに有用である。
関連論文リスト
- ReLATE: Learning Efficient Sparse Encoding for High-Performance Tensor Decomposition [1.1681618004689642]
ReLATEは強化学習型適応テンソル符号化フレームワークである。
トレーニングサンプルをラベル付けすることなく、効率的なスパーステンソル表現を構築する。
幾何平均速度は1.4-1.46Xで、様々なスパーステンソルデータセットで専門家が設計したフォーマットを一貫して上回っている。
論文 参考訳(メタデータ) (2025-08-29T23:45:09Z) - Over-parameterized Student Model via Tensor Decomposition Boosted Knowledge Distillation [10.48108719012248]
我々は、より大規模な教師モデルを模倣するために、コンパクトな学生モデルを訓練する知識蒸留(KD)に焦点を当てる。
これまでの作業の多くとは対照的に、トレーニング中の学生モデルのパラメータをスケールアップする。
論文 参考訳(メタデータ) (2024-11-10T12:40:59Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Med-Tuning: A New Parameter-Efficient Tuning Framework for Medical Volumetric Segmentation [37.42382366505377]
我々は,医療用ボリュームセグメンテーションタスクのためのパラメータ効率チューニング(PET)を実現するために,Med-Tuningという新しいフレームワークを導入した。
本フレームワークは,自然画像上で事前学習したセグメンテーション作業における2次元ベースラインの精度を向上させる。
完全なFTと比較して、Med-Tuningは細調整されたモデルのパラメータを最大4倍に減らし、セグメンテーション性能も向上した。
論文 参考訳(メタデータ) (2023-04-21T10:47:13Z) - CHAPTER: Exploiting Convolutional Neural Network Adapters for
Self-supervised Speech Models [62.60723685118747]
自己教師付き学習(SSL)は、ラベルのないデータから表現を学習するための強力な技術である。
特徴抽出器にCNNアダプタを適用し,SSL音声モデルに特化して設計された効率的なチューニング手法を提案する。
特徴抽出器にCNNを追加することで、感情や話者のタスクへの適応が促進されることを実証的に見出した。
論文 参考訳(メタデータ) (2022-12-01T08:50:12Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。