論文の概要: Fast Cerebral Blood Flow Analysis via Extreme Learning Machine
- arxiv url: http://arxiv.org/abs/2401.05578v2
- Date: Sun, 28 Jan 2024 10:36:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-30 20:34:56.121143
- Title: Fast Cerebral Blood Flow Analysis via Extreme Learning Machine
- Title(参考訳): エクストリームラーニングマシンを用いた高速脳血流解析
- Authors: Xi Chen, Zhenya Zang, Xingda Li
- Abstract要約: 拡散相関分光法(DCS)を用いた高速かつ高精度な脳血流解析手法を提案する。
半無限層モデルと多層モデルの両方に対する合成データセットを用いて既存のアルゴリズムを評価する。
その結果、ELMは様々なノイズレベルや光学パラメータにわたって高い忠実度を連続的に達成し、堅牢な一般化能力を示し、反復整合アルゴリズムより優れることを示した。
- 参考スコア(独自算出の注目度): 4.373558495838564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a rapid and precise analytical approach for analyzing cerebral
blood flow (CBF) using Diffuse Correlation Spectroscopy (DCS) with the
application of the Extreme Learning Machine (ELM). Our evaluation of ELM and
existing algorithms involves a comprehensive set of metrics. We assess these
algorithms using synthetic datasets for both semi-infinite and multi-layer
models. The results demonstrate that ELM consistently achieves higher fidelity
across various noise levels and optical parameters, showcasing robust
generalization ability and outperforming iterative fitting algorithms. Through
a comparison with a computationally efficient neural network, ELM attains
comparable accuracy with reduced training and inference times. Notably, the
absence of a back-propagation process in ELM during training results in
significantly faster training speeds compared to existing neural network
approaches. This proposed strategy holds promise for edge computing
applications with online training capabilities.
- Abstract(参考訳): 本研究では,extreme learning machine (elm) を用いた拡散相関分光法 (dcs) を用いた脳血流解析のための迅速かつ精密な解析手法を提案する。
ELMと既存のアルゴリズムの評価には、総合的なメトリクスセットが伴う。
半無限および多層モデルのための合成データセットを用いて,これらのアルゴリズムを評価する。
その結果、ELMは様々なノイズレベルと光学パラメータの高忠実度を一貫して達成し、頑健な一般化能力を示し、反復整合アルゴリズムよりも優れていた。
計算効率のよいニューラルネットワークと比較することにより、EMMはトレーニング時間と推論時間を短縮して同等の精度が得られる。
特に、トレーニング中のEMMのバックプロパゲーションプロセスの欠如により、既存のニューラルネットワークアプローチに比べてトレーニング速度が大幅に向上する。
提案した戦略は、オンライントレーニング機能を備えたエッジコンピューティングアプリケーションに対する約束である。
関連論文リスト
- Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Self-learning locally-optimal hypertuning using maximum entropy, and
comparison of machine learning approaches for estimating fatigue life in
composite materials [0.0]
疲労損傷を予測するための最大エントロピーの原理に基づくML近傍近似アルゴリズムを開発した。
予測は、他のMLアルゴリズムと同様、高いレベルの精度を達成する。
論文 参考訳(メタデータ) (2022-10-19T12:20:07Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Accurate Discharge Coefficient Prediction of Streamlined Weirs by
Coupling Linear Regression and Deep Convolutional Gated Recurrent Unit [2.4475596711637433]
本研究では,CFDシミュレーションに代わるデータ駆動モデリング手法を提案する。
提案した3層階層型DLアルゴリズムは,後続の2つのGRUレベルを結合した畳み込み層で構成されており,LR法とハイブリダイゼーションすることで,誤差の低減につながることがわかった。
論文 参考訳(メタデータ) (2022-04-12T01:59:36Z) - Fast fluorescence lifetime imaging analysis via extreme learning machine [7.7721777809498676]
極端学習機械(ELM)を用いた蛍光寿命顕微鏡(FLIM)の高速かつ正確な解析法を提案する。
その結果,ELMは低光子条件でも高い忠実度が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-25T16:34:51Z) - Multi-Sample Online Learning for Spiking Neural Networks based on
Generalized Expectation Maximization [42.125394498649015]
スパイキングニューラルネットワーク(SNN)は、バイナリニューラルダイナミックアクティベーションを通じて処理することで、生物学的脳の効率の一部をキャプチャする。
本稿では, シナプス重みを共有しながら, 独立したスパイキング信号をサンプリングする複数のコンパートメントを活用することを提案する。
鍵となる考え方は、これらの信号を使ってログライクなトレーニング基準のより正確な統計的推定と勾配を求めることである。
論文 参考訳(メタデータ) (2021-02-05T16:39:42Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Large Batch Training Does Not Need Warmup [111.07680619360528]
大きなバッチサイズを使用してディープニューラルネットワークをトレーニングすることは、有望な結果を示し、多くの現実世界のアプリケーションに利益をもたらしている。
本稿では,大規模バッチ学習のための全層適応レートスケーリング(CLARS)アルゴリズムを提案する。
分析に基づいて,このギャップを埋め,3つの一般的な大規模バッチトレーニング手法の理論的洞察を提示する。
論文 参考訳(メタデータ) (2020-02-04T23:03:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。