論文の概要: Exploring the Relationship between Brain Hemisphere States and Frequency Bands through Deep Learning Optimization Techniques
- arxiv url: http://arxiv.org/abs/2509.14078v1
- Date: Wed, 17 Sep 2025 15:26:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.901184
- Title: Exploring the Relationship between Brain Hemisphere States and Frequency Bands through Deep Learning Optimization Techniques
- Title(参考訳): 深層学習最適化手法による脳半球状態と周波数帯域の関係の探索
- Authors: Robiul Islam, Dmitry I. Ignatov, Karl Kaberg, Roman Nabatchikov,
- Abstract要約: 本研究は,脳波周波数帯域における様々な畳み込みを用いた性能評価を行い,左右半球の効率的なクラス予測について検討した。
Adagrad と RMSprop は、異なる周波数帯域で一貫して良好に動作し、Adadelta はクロスモデル評価において堅牢な性能を示した。
深層ネットワークは複雑なパターンを学習する際の競合性能を示すが、浅い3層ネットワークは精度が低い場合があり、計算効率が向上する。
- 参考スコア(独自算出の注目度): 3.966519779235704
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This study investigates classifier performance across EEG frequency bands using various optimizers and evaluates efficient class prediction for the left and right hemispheres. Three neural network architectures - a deep dense network, a shallow three-layer network, and a convolutional neural network (CNN) - are implemented and compared using the TensorFlow and PyTorch frameworks. Results indicate that the Adagrad and RMSprop optimizers consistently perform well across different frequency bands, with Adadelta exhibiting robust performance in cross-model evaluations. Specifically, Adagrad excels in the beta band, while RMSprop achieves superior performance in the gamma band. Conversely, SGD and FTRL exhibit inconsistent performance. Among the models, the CNN demonstrates the second highest accuracy, particularly in capturing spatial features of EEG data. The deep dense network shows competitive performance in learning complex patterns, whereas the shallow three-layer network, sometimes being less accurate, provides computational efficiency. SHAP (Shapley Additive Explanations) plots are employed to identify efficient class prediction, revealing nuanced contributions of EEG frequency bands to model accuracy. Overall, the study highlights the importance of optimizer selection, model architecture, and EEG frequency band analysis in enhancing classifier performance and understanding feature importance in neuroimaging-based classification tasks.
- Abstract(参考訳): 本研究では,各種オプティマイザを用いた脳波周波数帯域間の分類器性能について検討し,左右半球の効率的なクラス予測について検討した。
TensorFlowとPyTorchフレームワークを使用して、3つのニューラルネットワークアーキテクチャ(ディープ・ディープ・ネットワーク、浅い3層ネットワーク、畳み込みニューラルネットワーク(CNN))を実装して比較する。
その結果,Adagrad と RMSprop のオプティマイザは異なる周波数帯域で常に良好に動作し,Adadelta はクロスモデル評価において頑健な性能を示した。
具体的には、Adagradはベータバンドで優れ、RMSpropはガンマバンドで優れたパフォーマンスを達成する。
逆に、SGDとFTRLは一貫性のない性能を示す。
モデルの中で、CNNは、特に脳波データの空間的特徴を捉える上で、第2の精度を示している。
深層ネットワークは複雑なパターンを学習する際の競合性能を示すが、浅い3層ネットワークは精度が低い場合があり、計算効率が向上する。
SHAP(Shapley Additive Explanations)プロットは,脳波の周波数帯域の精度をモデル化するために,より効率的なクラス予測を行う。
全体として、この研究は、ニューロイメージングに基づく分類タスクにおいて、分類器の性能を高め、特徴を理解する上で、オプティマイザ選択、モデルアーキテクチャ、EEG周波数バンド分析の重要性を強調している。
関連論文リスト
- Training Graph Neural Networks Using Non-Robust Samples [2.1937382384136637]
グラフニューラルネットワーク(GNN)は、構造化されたデータを処理するための、非常に効果的なニューラルネットワークである。
GNNは、データポイント間の関係を表すグラフ構造と、データの特徴行列の両方を活用して、特徴表現を最適化する。
本稿では,モデルトレーニングのためのより小型で効果的なトレーニングセットを構築するために,元のトレーニングセットからノイズに敏感なトレーニングサンプルを選択する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-19T11:10:48Z) - Enhancing Fast Feed Forward Networks with Load Balancing and a Master Leaf Node [49.08777822540483]
高速フィードフォワードネットワーク(FFF)は、入力空間の異なる領域が広いネットワークのニューロンの異なるサブセットを活性化する観察を利用する。
本稿では,FFFアーキテクチャにロードバランシングとマスタリーフ技術を導入し,性能向上とトレーニングプロセスの簡素化を図る。
論文 参考訳(メタデータ) (2024-05-27T05:06:24Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Optimizing Neural Network Scale for ECG Classification [1.8953148404648703]
心電図(ECG)解析のための残留ニューラルネットワーク(ResNet)を対象とするスケーリング畳み込みニューラルネットワーク(CNN)について検討する。
本研究では,層深さ,チャネル数,コンボリューションカーネルサイズといった重要なパラメータの影響を調べることで,ResNetのスケールアップに有効な手法を探索し,実証した。
我々の発見は、計算資源が少ないか、少ない時間でより効率的で正確なモデルを得るための洞察を与えてくれる。
論文 参考訳(メタデータ) (2023-08-24T01:26:31Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - NAF: Neural Attenuation Fields for Sparse-View CBCT Reconstruction [79.13750275141139]
本稿では,スパースビューCBCT再構成のための新規かつ高速な自己教師型ソリューションを提案する。
所望の減衰係数は、3次元空間座標の連続関数として表現され、完全に接続されたディープニューラルネットワークによってパラメータ化される。
ハッシュ符号化を含む学習ベースのエンコーダが採用され、ネットワークが高周波の詳細をキャプチャするのに役立つ。
論文 参考訳(メタデータ) (2022-09-29T04:06:00Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - From Sound Representation to Model Robustness [82.21746840893658]
本研究では, 環境音の標準的な表現(スペクトログラム)が, 被害者の残差畳み込みニューラルネットワークの認識性能と対角攻撃性に与える影響について検討する。
3つの環境音響データセットの様々な実験から、ResNet-18モデルは、他のディープラーニングアーキテクチャよりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:30:49Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z) - Classification of Hand Gestures from Wearable IMUs using Deep Neural
Network [0.0]
慣性測定ユニット(Inertial Measurement Unit, IMU)は3軸加速度計とジャイロスコープで構成される。
本稿では,ウェアラブルIMUセンサから得られる手の動きを分類するために,Deep Neural Network (DNN) を用いた新しい分類手法を提案する。
論文 参考訳(メタデータ) (2020-04-27T01:08:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。