論文の概要: Physics-based network fine-tuning for robust quantitative susceptibility
mapping from high-pass filtered phase
- arxiv url: http://arxiv.org/abs/2305.03844v1
- Date: Fri, 5 May 2023 20:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 19:14:10.657716
- Title: Physics-based network fine-tuning for robust quantitative susceptibility
mapping from high-pass filtered phase
- Title(参考訳): 高域フィルタ位相からのロバストな定量的感受性マッピングのための物理ネットワーク微細チューニング
- Authors: Jinwei Zhang, Alexey Dimov, Chao Li, Hang Zhang, Thanh D. Nguyen,
Pascal Spincemaille, Yi Wang
- Abstract要約: 提案するネットワークは,HPFPからQSMを予測するために事前学習ネットワークを使用する場合の2つの一般的な一般化問題に対処する。
事前学習ネットワークの一般化誤差を低減するために,高域通過フィルタ双極子畳み込み前方モデルに基づくネットワーク微調整ステップを提案する。
計算コストを増大させることなく予測精度を向上させるために, プログレッシブUnetアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 11.750188487948332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: To improve the generalization ability of convolutional neural
network (CNN) based prediction of quantitative susceptibility mapping (QSM)
from high-pass filtered phase (HPFP) image. Methods: The proposed network
addresses two common generalization issues that arise when using a pre-trained
network to predict QSM from HPFP: a) data with unseen voxel sizes, and b) data
with unknown high-pass filter parameters. A network fine-tuning step based on a
high-pass filtering dipole convolution forward model is proposed to reduce the
generalization error of the pre-trained network. A progressive Unet
architecture is proposed to improve prediction accuracy without increasing
fine-tuning computational cost. Results: In retrospective studies using RMSE,
PSNR, SSIM and HFEN as quality metrics, the performance of both Unet and
progressive Unet was improved after physics-based fine-tuning at all voxel
sizes and most high-pass filtering cutoff frequencies tested in the experiment.
Progressive Unet slightly outperformed Unet both before and after fine-tuning.
In a prospective study, image sharpness was improved after physics-based
fine-tuning for both Unet and progressive Unet. Compared to Unet, progressive
Unet had better agreement of regional susceptibility values with reference QSM.
Conclusion: The proposed method shows improved robustness compared to the
pre-trained network without fine-tuning when the test dataset deviates from
training. Our code is available at https://github.com/Jinwei1209/SWI_to_QSM/
- Abstract(参考訳): 目的: 畳み込みニューラルネットワーク(CNN)を用いた高速フィルタ位相(HPFP)画像からの定量的感受性マッピング(QSM)の一般化能力を向上させること。
方法:提案ネットワークは,事前学習ネットワークを用いてHPFPからQSMを予測する際に生じる2つの共通一般化問題に対処する。
a) 目立たないボクセルサイズのデータ,及び
b) 未知のハイパスフィルタパラメータを有するデータ。
事前学習ネットワークの一般化誤差を低減するために,高域通過フィルタ双極子畳み込み前方モデルに基づくネットワーク微調整ステップを提案する。
計算コストを微調整することなく予測精度を向上させるために, プログレッシブunetアーキテクチャを提案する。
結果: RMSE, PSNR, SSIM, HFENを品質指標として用いた振り返り実験において, UnetおよびプログレッシブUnetの性能は, すべてのボクセルサイズでの物理ベース微調整および実験で試験されたほとんどの高通過フィルタ遮断周波数により改善した。
プログレッシブunetは、微調整前後のunetをわずかに上回った。
UnetとプログレッシブUnetの両方を物理ベースで微調整した後、画像のシャープネスが向上した。
unetと比較して、プログレッシブunetは参照qsmと地域感受性値の一致が良好であった。
結論: 提案手法は,テストデータセットがトレーニングから逸脱したときの微調整を伴わない,事前学習ネットワークと比較して堅牢性の向上を示す。
私たちのコードはhttps://github.com/Jinwei1209/SWI_to_QSM/で利用可能です。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - Optimization dependent generalization bound for ReLU networks based on
sensitivity in the tangent bundle [0.0]
本稿では,フィードフォワードReLUネットワークの一般化誤差に基づいたPAC型を提案する。
得られた境界はネットワークの深さに明示的に依存しない。
論文 参考訳(メタデータ) (2023-10-26T13:14:13Z) - Adaptive Anomaly Detection for Internet of Things in Hierarchical Edge
Computing: A Contextual-Bandit Approach [81.5261621619557]
階層エッジコンピューティング(HEC)を用いた適応型異常検出手法を提案する。
まず,複雑性を増した複数のDNNモデルを構築し,それぞれを対応するHEC層に関連付ける。
そこで我々は、文脈帯域問題として定式化され、強化学習ポリシーネットワークを用いて解決される適応モデル選択スキームを設計する。
論文 参考訳(メタデータ) (2021-08-09T08:45:47Z) - Implementing a foveal-pit inspired filter in a Spiking Convolutional
Neural Network: a preliminary study [0.0]
我々は,網膜卵管刺激によるガウスフィルタとランク順符号化の差異を取り入れたスポーキング畳み込みニューラルネットワーク(SCNN)を提示した。
このモデルは、Nengoライブラリーで実装されているように、スパイキングニューロンで動作するように適応されたバックプロパゲーションアルゴリズムの変種を用いて訓練される。
ネットワークは最大90%の精度で達成され、損失はクロスエントロピー関数を用いて計算される。
論文 参考訳(メタデータ) (2021-05-29T15:28:30Z) - Test-Time Adaptation for Super-Resolution: You Only Need to Overfit on a
Few More Images [12.846479438896338]
事前訓練されたSRネットワークからHR予測の知覚品質を改善するためのシンプルで普遍的なアプローチを提案します。
知覚品質とPSNR/SSIM値の点で、画像に対する微調整の効果を示します。
論文 参考訳(メタデータ) (2021-04-06T16:50:52Z) - Exploiting Adam-like Optimization Algorithms to Improve the Performance
of Convolutional Neural Networks [82.61182037130405]
勾配降下(SGD)は深いネットワークを訓練するための主要なアプローチです。
本研究では,現在と過去の勾配の違いに基づいて,Adamに基づく変分を比較する。
resnet50を勾配降下訓練したネットワークのアンサンブルと融合実験を行った。
論文 参考訳(メタデータ) (2021-03-26T18:55:08Z) - Lost in Pruning: The Effects of Pruning Neural Networks beyond Test
Accuracy [42.15969584135412]
ニューラルネットワークプルーニングは、現代のネットワークの推論コストを削減するために使用される一般的な技術です。
試験精度のみを終了条件で使用するだけで、結果のモデルが正常に機能するかどうかを評価します。
刈り取られたネットワークは、効果的に未刈り込みモデルに近似するが、刈り取られたネットワークがコンメンシュレートのパフォーマンスを達成できるプルー比はタスクによって大きく異なる。
論文 参考訳(メタデータ) (2021-03-04T13:22:16Z) - A Meta-Learning Approach to the Optimal Power Flow Problem Under
Topology Reconfigurations [69.73803123972297]
メタラーニング(MTL)アプローチを用いて訓練されたDNNベースのOPF予測器を提案する。
開発したOPF予測器はベンチマークIEEEバスシステムを用いてシミュレーションにより検証される。
論文 参考訳(メタデータ) (2020-12-21T17:39:51Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches [0.40611352512781856]
適応フィルタのスタックとして多層ニューラルネットワークを考えることが可能であることを示す。
我々は,BPで発生した行動の悪影響を予測し,その発生前にも予測し,よりよいアルゴリズムを導入する。
我々の実験は、ディープニューラルネットワークのトレーニングにおけるアルゴリズムの有用性を示す。
論文 参考訳(メタデータ) (2020-03-11T08:45:36Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。