論文の概要: Personalized Control for Lower Limb Prosthesis Using Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2505.09366v1
- Date: Wed, 14 May 2025 13:18:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.467502
- Title: Personalized Control for Lower Limb Prosthesis Using Kolmogorov-Arnold Networks
- Title(参考訳): Kolmogorov-Arnold ネットワークを用いた下肢補綴のパーソナライズドコントロール
- Authors: SeyedMojtaba Mohasel, Alireza Afzal Aghaei, Corey Pew,
- Abstract要約: 本稿では,低床義肢義肢のパーソナライズのためのKAN(Kolmogorov-Arnold Networks)における学習可能なアクティベーション機能の可能性について検討する。
さらに、ユーザ固有のトレーニングデータとプールされたトレーニングデータを評価し、ターンインテンション予測のための機械学習(ML)とディープラーニング(DL)のパフォーマンスを改善する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: This paper investigates the potential of learnable activation functions in Kolmogorov-Arnold Networks (KANs) for personalized control in a lower-limb prosthesis. In addition, user-specific vs. pooled training data is evaluated to improve machine learning (ML) and Deep Learning (DL) performance for turn intent prediction. Method: Inertial measurement unit (IMU) data from the shank were collected from five individuals with lower-limb amputation performing turning tasks in a laboratory setting. Ability to classify an upcoming turn was evaluated for Multilayer Perceptron (MLP), Kolmogorov-Arnold Network (KAN), convolutional neural network (CNN), and fractional Kolmogorov-Arnold Networks (FKAN). The comparison of MLP and KAN (for ML models) and FKAN and CNN (for DL models) assessed the effectiveness of learnable activation functions. Models were trained separately on user-specific and pooled data to evaluate the impact of training data on their performance. Results: Learnable activation functions in KAN and FKAN did not yield significant improvement compared to MLP and CNN, respectively. Training on user-specific data yielded superior results compared to pooled data for ML models ($p < 0.05$). In contrast, no significant difference was observed between user-specific and pooled training for DL models. Significance: These findings suggest that learnable activation functions may demonstrate distinct advantages in datasets involving more complex tasks and larger volumes. In addition, pooled training showed comparable performance to user-specific training in DL models, indicating that model training for prosthesis control can utilize data from multiple participants.
- Abstract(参考訳): 目的:本論文は,低床義肢義肢のパーソナライズ制御のためのKAN(Kolmogorov-Arnold Networks)における学習可能なアクティベーション機能の可能性について検討する。
さらに、ユーザ固有のトレーニングデータとプールされたトレーニングデータを評価し、ターンインテンション予測のための機械学習(ML)とディープラーニング(DL)のパフォーマンスを改善する。
方法: 実験室で旋回作業を行う下肢切断者5名から, シャンクからの慣性測定単位(IMU)データを収集した。
複数層パーセプトロン(MLP)、コルモゴロフ・アルノルドネットワーク(KAN)、畳み込みニューラルネットワーク(CNN)、分数的コルモゴロフ・アルノルドネットワーク(FKAN)について、次のターンを分類する能力を評価した。
MLPとKAN(MLモデル)とFKANとCNN(DLモデル)を比較し,学習可能なアクティベーション関数の有効性を評価した。
モデルは、ユーザ固有のデータとプールされたデータに基づいて個別にトレーニングされ、トレーニングデータがパフォーマンスに与える影響を評価する。
結果:kanおよびFKANの学習可能なアクティベーション機能は,MLPおよびCNNと比較して有意な改善は得られなかった。
ユーザ固有のデータのトレーニングは、MLモデルのプールデータ(p < 0.05$)よりも優れた結果を得た。
一方,DLモデルのユーザ固有トレーニングとプールトレーニングの間に有意な差は認められなかった。
意義: これらの結果は, より複雑なタスクやより大きなボリュームを含むデータセットにおいて, 学習可能なアクティベーション関数が明確な優位性を示すことを示唆している。
さらに、プールドトレーニングは、DLモデルにおけるユーザ固有のトレーニングに匹敵する性能を示し、補綴制御のためのモデルトレーニングが複数の参加者のデータを活用できることを示唆した。
関連論文リスト
- Efficient Multi-Agent System Training with Data Influence-Oriented Tree Search [59.75749613951193]
木探索とデータ選択の両方をガイドするデータインフルエンス指向木探索(DITS)を提案する。
インフルエンススコアを活用することで、システム改善のための最も影響力のあるデータを効果的に特定する。
非微分不可能な指標に適した影響スコア推定法を導出する。
論文 参考訳(メタデータ) (2025-02-02T23:20:16Z) - Kolmogorov-Arnold Networks in Low-Data Regimes: A Comparative Study with Multilayer Perceptrons [2.77390041716769]
Kolmogorov-Arnold Networks (KAN) は、ネットワークエッジ上で直接、高度に柔軟な学習可能なアクティベーション関数を使用する。
kanは学習可能なパラメータの数を大幅に増加させ、データスカース環境での有効性に対する懸念を高めます。
個別化活性化関数はパラメータの緩やかな増加だけで予測精度が大幅に向上することを示す。
論文 参考訳(メタデータ) (2024-09-16T16:56:08Z) - Accelerating Large Language Model Pretraining via LFR Pedagogy: Learn, Focus, and Review [50.78587571704713]
Learn-Focus-Review(LFR)は、モデルの学習進捗に適応する動的トレーニングアプローチである。
LFRは、データブロック(トークンのシーケンス)にわたるモデルの学習パフォーマンスを追跡し、データセットの困難な領域を再検討する。
フルデータセットでトレーニングされたベースラインモデルと比較して、LFRは一貫して低いパープレキシティと高い精度を達成した。
論文 参考訳(メタデータ) (2024-09-10T00:59:18Z) - Probing Perfection: The Relentless Art of Meddling for Pulmonary Airway Segmentation from HRCT via a Human-AI Collaboration Based Active Learning Method [13.384578466263566]
肺気管分節症では, 注記データの不足が主訴である。
ディープラーニング(DL)メソッドは、'ブラックボックス'モデルの不透明さとパフォーマンス向上の必要性という課題に直面します。
多様なクエリ戦略とさまざまなDLモデルを組み合わせることで、これらの課題に対処する。
論文 参考訳(メタデータ) (2024-07-03T23:27:53Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Measuring and Improving Attentiveness to Partial Inputs with Counterfactuals [91.59906995214209]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - Towards Better Modeling with Missing Data: A Contrastive Learning-based
Visual Analytics Perspective [7.577040836988683]
データ不足は機械学習(ML)モデリングの課題となる可能性がある。
現在のアプローチは、特徴計算とラベル予測に分類される。
本研究は、観測データに欠落した値でモデル化するコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T13:16:24Z) - Value function estimation using conditional diffusion models for control [62.27184818047923]
拡散値関数(DVF)と呼ばれる単純なアルゴリズムを提案する。
拡散モデルを用いて環境-ロボット相互作用の連成多段階モデルを学ぶ。
本稿では,DVFを用いて複数のコントローラの状態を効率よく把握する方法を示す。
論文 参考訳(メタデータ) (2023-06-09T18:40:55Z) - MUSCLE: Strengthening Semi-Supervised Learning Via Concurrent
Unsupervised Learning Using Mutual Information Maximization [29.368950377171995]
我々は、教師なし学習と半教師なし学習を併用するために、相互情報に基づく教師なし・半教師付き並行学習(MUSCLE)を導入する。
MUSCLEはニューラルネットワークのスタンドアロントレーニングスキームとして使用することができ、他の学習手法にも組み込むことができる。
提案手法は,CIFAR-10,CIFAR-100,Mini-Imagenetなど,いくつかの標準ベンチマークにおいて,その性能に優れることを示す。
論文 参考訳(メタデータ) (2020-11-30T23:01:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。