論文の概要: Convolutional Dictionary Learning by End-To-End Training of Iterative
Neural Networks
- arxiv url: http://arxiv.org/abs/2206.04447v1
- Date: Thu, 9 Jun 2022 12:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 21:11:39.884684
- Title: Convolutional Dictionary Learning by End-To-End Training of Iterative
Neural Networks
- Title(参考訳): 反復ニューラルネットワークのエンドツーエンド学習による畳み込み辞書学習
- Authors: Andreas Kofler, Christian Wald, Tobias Schaeffter, Markus Haltmeier,
Christoph Kolbitsch
- Abstract要約: 本研究では,教師付きおよび物理情報を用いたオンライン畳み込み辞書学習アルゴリズムとして利用可能な INN を構築する。
提案手法は,従来の2つのモデルに依存しない訓練法よりも改善され,深い INN と比較して競争結果が得られることを示す。
- 参考スコア(独自算出の注目度): 3.6280929178575994
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparsity-based methods have a long history in the field of signal processing
and have been successfully applied to various image reconstruction problems.
The involved sparsifying transformations or dictionaries are typically either
pre-trained using a model which reflects the assumed properties of the signals
or adaptively learned during the reconstruction - yielding so-called blind
Compressed Sensing approaches. However, by doing so, the transforms are never
explicitly trained in conjunction with the physical model which generates the
signals. In addition, properly choosing the involved regularization parameters
remains a challenging task. Another recently emerged training-paradigm for
regularization methods is to use iterative neural networks (INNs) - also known
as unrolled networks - which contain the physical model. In this work, we
construct an INN which can be used as a supervised and physics-informed online
convolutional dictionary learning algorithm. We evaluated the proposed approach
by applying it to a realistic large-scale dynamic MR reconstruction problem and
compared it to several other recently published works. We show that the
proposed INN improves over two conventional model-agnostic training methods and
yields competitive results also compared to a deep INN. Further, it does not
require to choose the regularization parameters and - in contrast to deep INNs
- each network component is entirely interpretable.
- Abstract(参考訳): 空間性に基づく手法は、信号処理の分野で長い歴史を持ち、様々な画像再構成問題にうまく適用されてきた。
関連するスパーシフィケーション変換や辞書は通常、信号の仮定された特性を反映するモデルを用いて事前訓練されるか、あるいは再建中に適応的に学習されるモデルで、いわゆるブラインド圧縮センシングアプローチをもたらす。
しかし、そうすることで、変換は信号を生成する物理モデルと共に明示的に訓練されることはない。
さらに、関連する正規化パラメータを適切に選択することは難しい課題である。
正規化法のために最近登場した別のトレーニングパラダイムは、物理モデルを含む反復ニューラルネットワーク(inn、unrolled networks)を使用することである。
本研究では,教師付きおよび物理情報を用いたオンライン畳み込み辞書学習アルゴリズムとして利用可能な INN を構築する。
提案手法を,現実的な大規模動的MR再構成問題に適用して評価し,最近発表されたいくつかの論文と比較した。
提案手法は,従来の2つのモデルに依存しない訓練法よりも改善され,深いINNと比較して競争結果が得られることを示す。
さらに、正規化パラメータを選択する必要はなく、ディープIDNとは対照的に、各ネットワークコンポーネントは完全に解釈可能である。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Return of the RNN: Residual Recurrent Networks for Invertible Sentence
Embeddings [0.0]
本研究では、教師なし符号化タスクで訓練された残効再帰ネットワークを用いて、非可逆文埋め込みのための新しいモデルを提案する。
ニューラルネットワーク翻訳モデルに共通する確率的出力ではなく、回帰に基づく出力層を用いて入力シーケンスのワードベクトルを再構成する。
RNNはLSTMや2次最適化法などのメモリユニットを必要とすることを考えると、このモデルはADAMによる高精度かつ高速なトレーニングを実現している。
論文 参考訳(メタデータ) (2023-03-23T15:59:06Z) - Identifying Equivalent Training Dynamics [3.793387630509845]
共役および非共役のトレーニングダイナミクスを識別するフレームワークを開発する。
クープマン作用素理論の進歩を利用して、クープマン固有値を比較することで、オンラインミラー降下とオンライン勾配降下の既知同値を正しく同定できることを実証する。
a)浅層ニューラルネットワークと広層ニューラルネットワークの間の非共役トレーニングダイナミクスの同定、(b)畳み込みニューラルネットワークにおけるトレーニングダイナミクスの初期段階の特徴付け、(c)グルーキングを行わないトランスフォーマーにおける非共役トレーニングダイナミクスの発見。
論文 参考訳(メタデータ) (2023-02-17T22:15:20Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Convolutional Analysis Operator Learning by End-To-End Training of
Iterative Neural Networks [3.6280929178575994]
本稿では、反復ニューラルネットワークのエンドツーエンドトレーニングにより、畳み込みスペーシングフィルタを効率的に学習する方法を示す。
我々は,非カルテシアン2次元心血管MRI例に対するアプローチを検証し,得られたフィルタが,デカップリングプレトレーニングにより得られたものよりも,対応する再構成アルゴリズムに適していることを示した。
論文 参考訳(メタデータ) (2022-03-04T07:32:16Z) - On the adaptation of recurrent neural networks for system identification [2.5234156040689237]
本稿では,動的システムのリカレントニューラルネットワーク(RNN)モデルの高速かつ効率的な適応を可能にするトランスファー学習手法を提案する。
その後、システムダイナミクスが変化すると仮定され、摂動系における名目モデルの性能が不可避的に低下する。
ミスマッチに対処するため、新しい動的状態からの新鮮なデータに基づいてトレーニングされた付加的補正項でモデルを拡張する。
論文 参考訳(メタデータ) (2022-01-21T12:04:17Z) - Regularized Sequential Latent Variable Models with Adversarial Neural
Networks [33.74611654607262]
逐次データの変動をモデル化するために,RNN で高レベル潜時確率変数を使用する方法を提案する。
変動RNNモデルの学習に逆法を用いる可能性を探る。
論文 参考訳(メタデータ) (2021-08-10T08:05:14Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。