論文の概要: A Trained Regularization Approach Based on Born Iterative Method for
Electromagnetic Imaging
- arxiv url: http://arxiv.org/abs/2112.13367v1
- Date: Sun, 26 Dec 2021 11:58:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-29 05:01:52.206984
- Title: A Trained Regularization Approach Based on Born Iterative Method for
Electromagnetic Imaging
- Title(参考訳): 電磁イメージングのためのボルニング反復法に基づく正規化訓練手法
- Authors: Abdulla Desmal
- Abstract要約: 提案したTBIMはネストループで構成され、外ループはTBIM反復ステップを実行し、内ループはトレーニングされた反復収縮閾値アルゴリズム(TISTA)を実行する。
適用されたTISTAは、U-netアーキテクチャに基づいて設計されたトレーニングされた正規化ネットワークで実装された線形Landweberイテレーションを実行する。
以上の手法は、トレーニングプロセスを通じて低メモリ割り当てを維持しながら、TBIMステップを数回実行した後、高品質な画像復元を実現した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A trained-based Born iterative method (TBIM) is developed for electromagnetic
imaging (EMI) applications. The proposed TBIM consists of a nested loop; the
outer loop executes TBIM iteration steps, while the inner loop executes a
trained iterative shrinkage thresholding algorithm (TISTA). The applied TISTA
runs linear Landweber iterations implemented with a trained regularization
network designed based on U-net architecture. A normalization process was
imposed in TISTA that made TISTA training applicable within the proposed TBIM.
The iterative utilization of the regularization network in TISTA is a
bottleneck that demands high memory allocation through the training process.
Therefore TISTA within each TBIM step was trained separately. The TISTA
regularization network in each TBIM step was initialized using the weights from
the previous TBIM step. The above approach achieved high-quality image
restoration after running few TBIM steps while maintained low memory allocation
through the training process. The proposed framework can be extended to Newton
or quasi-Newton schemes, where within each Newton iteration, a linear ill-posed
problem is optimized that differs from one example to another. The numerical
results illustrated in this work show the superiority of the proposed TBIM
compared to the conventional sparse-based Born iterative method (SBIM).
- Abstract(参考訳): 電磁イメージング(EMI)応用のためのトレーニングベースボルン反復法(TBIM)を開発した。
提案したTBIMはネストループで構成され,外ループはTBIM繰り返しステップを実行し,内ループはトレーニングされた反復収縮閾値アルゴリズム(TISTA)を実行する。
適用されたTISTAは、U-netアーキテクチャに基づいて設計されたトレーニングされた正規化ネットワークで実装された線形Landweberイテレーションを実行する。
TISTAトレーニングをTBIMに適用させるTISTAの正規化プロセスが導入された。
TISTAにおける正規化ネットワークの反復利用は、トレーニングプロセスを通じて高いメモリ割り当てを必要とするボトルネックである。
そのため,TBIMの各ステップのTISTAは別々に訓練された。
各TBIMステップにおけるTISTA正規化ネットワークは、前のTBIMステップの重みを使って初期化した。
以上の手法は、トレーニングプロセスを通じて低メモリ割り当てを維持しながら、TBIMステップをほとんど実行した後、高品質な画像復元を実現した。
提案したフレームワークはニュートンスキームや準ニュートンスキームに拡張することができ、ニュートン反復毎に、ある例から別の例へ異なる線形不測問題に最適化される。
本研究で示される数値結果は,従来のスパース方式のボルン反復法 (SBIM) と比較して,提案したTBIMの優位性を示している。
関連論文リスト
- Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Alternate Training of Shared and Task-Specific Parameters for Multi-Task
Neural Networks [49.1574468325115]
本稿では,ハードパラメータ共有マルチタスクニューラルネットワーク(MTNN)のための新しい代替トレーニング手法を提案する。
提案した代替トレーニング手法は、モデルのマルチヘッドアーキテクチャを利用して、共有およびタスク固有の重みを交互に更新する。
実証実験では、遅延オーバーフィッティング、予測の改善、計算要求の削減が示されている。
論文 参考訳(メタデータ) (2023-12-26T21:33:03Z) - Accelerated parallel MRI using memory efficient and robust monotone
operator learning (MOL) [24.975981795360845]
本稿では,並列MRIにおける単調演算子学習フレームワークの有用性について検討する。
このアプローチの利点は、一意性、収束性、安定性を含む圧縮センシングアルゴリズムと同様の保証を含む。
静的および動的設定のための高速化並列MRIのコンテキストにおいて,異なるアンロールアルゴリズムと比較することにより,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-04-03T20:26:59Z) - Towards Memory- and Time-Efficient Backpropagation for Training Spiking
Neural Networks [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックコンピューティングのためのエネルギー効率の高いモデルである。
本研究では,学習効率を大幅に向上させつつ,高い性能を達成できる空間学習時間(SLTT)法を提案する。
BPTTと比較して, メモリコストとトレーニング時間は, それぞれ70%以上, 50%以上削減されている。
論文 参考訳(メタデータ) (2023-02-28T05:01:01Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - AskewSGD : An Annealed interval-constrained Optimisation method to train
Quantized Neural Networks [12.229154524476405]
我々は、深層ニューラルネットワーク(DNN)を量子化重みでトレーニングするための新しいアルゴリズム、Annealed Skewed SGD - AskewSGDを開発した。
アクティブなセットと実行可能な方向を持つアルゴリズムとは異なり、AskewSGDは実行可能な全セットの下でのプロジェクションや最適化を避けている。
実験結果から,AskewSGDアルゴリズムは古典的ベンチマークの手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-11-07T18:13:44Z) - Loop Unrolled Shallow Equilibrium Regularizer (LUSER) -- A
Memory-Efficient Inverse Problem Solver [26.87738024952936]
逆問題では、潜在的に破損し、しばしば不適切な測定結果から、いくつかの基本的な関心のシグナルを再構築することを目的としている。
浅い平衡正規化器(L)を用いたLUアルゴリズムを提案する。
これらの暗黙のモデルは、より深い畳み込みネットワークと同じくらい表現力があるが、トレーニング中にはるかにメモリ効率が良い。
論文 参考訳(メタデータ) (2022-10-10T19:50:37Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - An EM Approach to Non-autoregressive Conditional Sequence Generation [49.11858479436565]
自己回帰(AR)モデルは条件付きシーケンス生成において支配的なアプローチである。
非自己回帰(NAR)モデルは、最近、すべての出力トークンを並列に生成することでレイテンシを低減するために提案されている。
本稿では,ARモデルとNARモデルの両方を統合期待最大化フレームワークで協調的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2020-06-29T20:58:57Z) - Deep unfolding of the weighted MMSE beamforming algorithm [9.518010235273783]
MISOダウンリンクチャネルに対するWMMSEアルゴリズムに対する深部展開の新たな適用法を提案する。
深層展開は、自然に専門家の知識を取り入れており、即時かつしっかりとしたアーキテクチャ選択の利点、トレーニング可能なパラメータの少ないこと、説明可能性の向上がある。
シミュレーションにより、ほとんどの設定において、展開されたWMMSEは、一定回数の反復に対して、WMMSEよりも優れているか、等しく動作することを示す。
論文 参考訳(メタデータ) (2020-06-15T14:51:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。