論文の概要: Deep Neural Network (DNN) for Water/Fat Separation: Supervised Training,
Unsupervised Training, and No Training
- arxiv url: http://arxiv.org/abs/2004.07923v1
- Date: Thu, 16 Apr 2020 20:24:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 22:14:57.977418
- Title: Deep Neural Network (DNN) for Water/Fat Separation: Supervised Training,
Unsupervised Training, and No Training
- Title(参考訳): 水/脂肪分離のためのディープニューラルネットワーク(DNN: Supervised Training, Unsupervised Training, No Training)
- Authors: R. Jafari, P. Spincemaille, J. Zhang, T. D. Nguyen, M. R. Prince, X.
Luo, J. Cho, D. Margolis, Y. Wang
- Abstract要約: 我々は、水/脂肪分離の最適化問題を解決するためにディープニューラルネットワーク(DNN)を使用する。
教師なし訓練法と教師なし訓練法を比較した。
いずれの手法もT2*-Iデータセットとよく一致した一貫した水/脂肪分離結果を生成した。
- 参考スコア(独自算出の注目度): 0.22485007639406512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: To use a deep neural network (DNN) for solving the optimization
problem of water/fat separation and to compare supervised and unsupervised
training.
Methods: The current T2*-IDEAL algorithm for solving fat/water separation is
dependent on initialization. Recently, deep neural networks (DNN) have been
proposed to solve fat/water separation without the need for suitable
initialization. However, this approach requires supervised training of DNN
(STD) using the reference fat/water separation images. Here we propose two
novel DNN water/fat separation methods 1) unsupervised training of DNN (UTD)
using the physical forward problem as the cost function during training, and 2)
no-training of DNN (NTD) using physical cost and backpropagation to directly
reconstruct a single dataset. The STD, UTD and NTD methods were compared with
the reference T2*-IDEAL.
Results: All DNN methods generated consistent water/fat separation results
that agreed well with T2*-IDEAL under proper initialization.
Conclusion: The water/fat separation problem can be solved using unsupervised
deep neural networks.
- Abstract(参考訳): 目的:水/脂肪分離の最適化問題を解決するためにディープニューラルネットワーク(DNN)を用い,教師なしトレーニングと教師なしトレーニングを比較する。
方法: 脂肪/水の分離を解決する現在のt2*-idealアルゴリズムは初期化に依存する。
近年, 適切な初期化を必要とせずに脂肪/水分離を解決するディープニューラルネットワーク(dnn)が提案されている。
しかし, 本手法では, 基準脂肪/水分離画像を用いたDNN(STD)の教師あり訓練が必要である。
ここでは2つの新しいDNN水/脂肪分離法を提案する。
1)訓練中の費用関数として物理前方問題を用いたDNN(UTD)の教師なし訓練
2) 物理コストとバックプロパゲーションを用いたDNN(NTD)のトレーニングを行わず, 単一データセットを直接再構築する。
STD法,UTD法,NTD法をT2*-IDEAL法と比較した。
結果: すべてのDNN法は, 適切な初期化条件下でT2*-IDEALとよく一致した水/脂肪分離結果を生成する。
結論: 教師なし深層ニューラルネットワークを用いて水・脂肪分離問題を解くことができる。
関連論文リスト
- Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - DNN Training Acceleration via Exploring GPGPU Friendly Sparsity [16.406482603838157]
本稿では、従来のランダムなニューロンやシナプスのドロップアウトを、通常のオンラインの行ベースもしくはタイルベースのドロップアウトパターンに置き換える近似ランダムドロップアウトを提案する。
次に,SGDに基づく探索アルゴリズムを開発し,行ベースあるいはタイルベースのドロップアウトパターンの分布を生成し,潜在的な精度損失を補う。
また,入力特徴図をその感度に基づいて動的にドロップアウトし,前向きおよび後向きのトレーニングアクセラレーションを実現するための感度対応ドロップアウト手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T01:32:03Z) - Fast Axiomatic Attribution for Neural Networks [44.527672563424545]
最近のアプローチには、望ましくない機能への依存を減らすために、トレーニングプロセスにディープニューラルネットワーク(DNN)の機能帰属に関する先行が含まれている。
本稿では, 1 つの前方/後方パスのみを用いて, 公理的特徴属性を計算できる DNN の高効率な公理的帰属性について考察する。
様々な実験により、$mathcalX$-DNNsの利点が示され、通常のDNNに対する最先端の一般的な帰属法を破り、帰属前の訓練に役立てられる。
論文 参考訳(メタデータ) (2021-11-15T10:51:01Z) - slimTrain -- A Stochastic Approximation Method for Training Separable
Deep Neural Networks [2.4373900721120285]
DeepTrain Network (DNN)は、多くのアプリケーションで高次元神経機能近似器としての成功を示している。
選択した超次元データセットに対する感度を低減したDNNのモデスト最適化手法であるslimTrainを提案する。
論文 参考訳(メタデータ) (2021-09-28T19:31:57Z) - Topological Measurement of Deep Neural Networks Using Persistent
Homology [0.7919213739992464]
ディープニューラルネットワーク(DNN)の内部表現は解読不能である。
持続的ホモロジー(PH)は、訓練されたDNNの複雑さを調べるために用いられた。
論文 参考訳(メタデータ) (2021-06-06T03:06:15Z) - Strengthening the Training of Convolutional Neural Networks By Using
Walsh Matrix [0.0]
分類性能を向上させるため,DNNのトレーニングと構造を変更した。
畳み込みニューラルネットワーク(CNN)の最後の層に続く最小距離ネットワーク(MDN)が分類器として使用される。
異なる領域では、ノード数が少ないDivFEを使用することでより高い分類性能が得られたことが観察されている。
論文 参考訳(メタデータ) (2021-03-31T18:06:11Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Deep Time Delay Neural Network for Speech Enhancement with Full Data
Learning [60.20150317299749]
本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
論文 参考訳(メタデータ) (2020-11-11T06:32:37Z) - Kernel Based Progressive Distillation for Adder Neural Networks [71.731127378807]
追加のみを含むAdder Neural Networks(ANN)は、エネルギー消費の少ないディープニューラルネットワークを新たに開発する方法を提供する。
すべての畳み込みフィルタを加算フィルタで置き換える場合、精度の低下がある。
本稿では,トレーニング可能なパラメータを増大させることなく,ANNの性能を向上するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-09-28T03:29:19Z) - Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality
Regularization and Singular Value Sparsification [53.50708351813565]
各ステップにSVDを適用することなく、トレーニング中に低ランクDNNを明示的に達成する最初の方法であるSVDトレーニングを提案する。
SVDトレーニングがDNN層のランクを著しく低減し,同じ精度で計算負荷の低減を実現することを実証的に示す。
論文 参考訳(メタデータ) (2020-04-20T02:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。