論文の概要: Current Source Localization Using Deep Prior with Depth Weighting
- arxiv url: http://arxiv.org/abs/2203.13981v1
- Date: Sat, 26 Mar 2022 03:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-03 02:54:06.759091
- Title: Current Source Localization Using Deep Prior with Depth Weighting
- Title(参考訳): 深度重み付きDeep Priorを用いた電流源位置推定
- Authors: Rio Yamana, Hajime Yano, Ryoichi Takashima, Tetsuya Takiguchi, Seiji
Nakagawa
- Abstract要約: 本稿では,Deep Priorに基づく新しいニューロン電流源の定位法を提案する。
これは畳み込みネットワークを用いた、現在のソースのより複雑な事前分布を表す。
その有効性は、シミュレーションされたMEGデータに対する電流源推定実験により確認される。
- 参考スコア(独自算出の注目度): 10.735352450402447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a novel neuronal current source localization method based
on Deep Prior that represents a more complicated prior distribution of current
source using convolutional networks. Deep Prior has been suggested as a means
of an unsupervised learning approach that does not require learning using
training data, and randomly-initialized neural networks are used to update a
source location using a single observation. In our previous work, a
Deep-Prior-based current source localization method in the brain has been
proposed but the performance was not almost the same as those of conventional
approaches, such as sLORETA. In order to improve the Deep-Prior-based approach,
in this paper, a depth weight of the current source is introduced for Deep
Prior, where depth weighting amounts to assigning more penalty to the
superficial currents. Its effectiveness is confirmed by experiments of current
source estimation on simulated MEG data.
- Abstract(参考訳): 本稿では,畳み込みネットワークを用いた電流源のより複雑な事前分布を表す,deep priorに基づく新しいニューロン電流源定位法を提案する。
Deep Priorは、トレーニングデータを使用した学習を必要としない教師なしの学習アプローチの手段として提案されており、ランダムに初期化されたニューラルネットワークを使用して、ソース位置を単一の観測で更新する。
前回の研究では,脳内深部Prior-based current source localization法が提案されているが,SLORETAのような従来の手法とほとんど同じ性能ではなかった。
本稿では,深部Priorに基づくアプローチを改善するために,深度重み付けによって表面電流により多くのペナルティを割り当てるディーププライドについて,電流源の深さ重みを導入している。
その有効性は、シミュレーションされたMEGデータに対する電流源推定実験により確認される。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Deep Learning Meets Adaptive Filtering: A Stein's Unbiased Risk
Estimator Approach [13.887632153924512]
本稿では,Deep RLSとDeep EASIというタスクベースのディープラーニングフレームワークを紹介する。
これらのアーキテクチャは、元のアルゴリズムの繰り返しをディープニューラルネットワークの層に変換し、効率的なソース信号推定を可能にする。
性能をさらに向上するために、我々は、スタインの非バイアスリスク推定器(SURE)に基づく代理損失関数を用いた、これらの深層無ロールネットワークのトレーニングを提案する。
論文 参考訳(メタデータ) (2023-07-31T14:26:41Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor
Multi-view Stereo [97.07453889070574]
本稿では,従来のSfM再構成と学習に基づく先行手法を併用した多視点深度推定手法を提案する。
提案手法は室内シーンにおける最先端手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-02T17:54:31Z) - Arithmetic Distribution Neural Network for Background Subtraction [7.09875977818162]
背景減算時における時間画素の分布を学習するための新しい算術分布ニューラルネットワーク(ADNN)を提案する。
提案手法はヒストグラムの確率情報を利用して有望な結果を得ることができる。
論文 参考訳(メタデータ) (2021-04-16T22:44:58Z) - Non-Local Spatial Propagation Network for Depth Completion [82.60915972250706]
本研究では,深度完了のための堅牢で効率的な非局所的空間伝搬ネットワークを提案する。
提案するネットワークは,RGBとスパース深度画像を入力とし,各画素の非局所的近傍とその親和性を推定する。
提案アルゴリズムは,混合深度問題に対する深度補完精度とロバスト性の観点から,従来のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-20T12:26:51Z) - Unsupervised Audio Source Separation using Generative Priors [43.35195236159189]
そこで本研究では,個々の音源から学習した生成的事前情報に基づく音源分離手法を提案する。
提案手法では,ソース固有の潜在空間を同時に探索し,構成源を効果的に回収する。
論文 参考訳(メタデータ) (2020-05-28T03:57:16Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。