論文の概要: Deep neural networks for inverse problems with pseudodifferential
operators: an application to limited-angle tomography
- arxiv url: http://arxiv.org/abs/2006.01620v1
- Date: Tue, 2 Jun 2020 14:03:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 01:24:10.249338
- Title: Deep neural networks for inverse problems with pseudodifferential
operators: an application to limited-angle tomography
- Title(参考訳): 擬似微分作用素の逆問題に対するディープニューラルネットワーク--有限角トモグラフィへの応用
- Authors: Tatiana A. Bubba, Mathilde Galinier, Matti Lassas, Marco Prato, Luca
Ratti, Samuli Siltanen
- Abstract要約: 線形逆問題において擬微分演算子(Psi$DOs)を学習するための新しい畳み込みニューラルネットワーク(CNN)を提案する。
フォワード演算子のより一般的な仮定の下では、ISTAの展開された反復はCNNの逐次的な層として解釈できることを示す。
特に、LA-CTの場合、アップスケーリング、ダウンスケーリング、畳み込みの操作は、制限角X線変換の畳み込み特性とウェーブレット系を定義する基本特性を組み合わせることで正確に決定できることを示す。
- 参考スコア(独自算出の注目度): 0.4110409960377149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel convolutional neural network (CNN), called $\Psi$DONet,
designed for learning pseudodifferential operators ($\Psi$DOs) in the context
of linear inverse problems. Our starting point is the Iterative Soft
Thresholding Algorithm (ISTA), a well-known algorithm to solve
sparsity-promoting minimization problems. We show that, under rather general
assumptions on the forward operator, the unfolded iterations of ISTA can be
interpreted as the successive layers of a CNN, which in turn provides fairly
general network architectures that, for a specific choice of the parameters
involved, allow to reproduce ISTA, or a perturbation of ISTA for which we can
bound the coefficients of the filters. Our case study is the limited-angle
X-ray transform and its application to limited-angle computed tomography
(LA-CT). In particular, we prove that, in the case of LA-CT, the operations of
upscaling, downscaling and convolution, which characterize our $\Psi$DONet and
most deep learning schemes, can be exactly determined by combining the
convolutional nature of the limited angle X-ray transform and basic properties
defining an orthogonal wavelet system. We test two different implementations of
$\Psi$DONet on simulated data from limited-angle geometry, generated from the
ellipse data set. Both implementations provide equally good and noteworthy
preliminary results, showing the potential of the approach we propose and
paving the way to applying the same idea to other convolutional operators which
are $\Psi$DOs or Fourier integral operators.
- Abstract(参考訳): 本稿では,線形逆問題において擬微分演算子(\Psi$DOs)を学習するために設計された新しい畳み込みニューラルネットワーク(CNN)を提案する。
我々の出発点は、スパーシティ・プロモーティング最小化問題を解決する有名なアルゴリズムである反復型ソフトしきい値アルゴリズム(ista)です。
フォワード演算子の仮定では、ISTAの展開された繰り返しをCNNの連続的な層として解釈することができ、それによって、関係するパラメータの特定の選択に対して、ISTAを再現したり、フィルタの係数を束縛できるISTAの摂動を許容する、かなり一般的なネットワークアーキテクチャが提供される。
ケーススタディは、リミテッドアングルX線変換とリミテッドアングルCT(Limited-angle Computed Tomography)への応用である。
特に、la-ctの場合、上限角x線変換の畳み込みの性質と直交ウェーブレット系を定義する基本的な性質を組み合わせることで、我々の$\psi$donetとほとんどのディープラーニングスキームを特徴づけるアップスケーリング、ダウンスケーリング、畳み込みの操作を正確に決定できることを証明します。
ellipseデータセットから生成された有限角幾何のシミュレーションデータに対して,$\psi$donet の2つの異なる実装をテストした。
どちらの実装も同様に良好で注目すべき予備的な結果を提供し、我々が提案するアプローチの可能性を示し、同じアイデアを$\Psi$DOs あるいは Fourier 積分作用素である他の畳み込み作用素に適用する方法を示す。
関連論文リスト
- Local Loss Optimization in the Infinite Width: Stable Parameterization of Predictive Coding Networks and Target Propagation [8.35644084613785]
局所目標の2つの代表的設計に対して、無限幅極限における最大更新パラメータ化(mu$P)を導入する。
深層線形ネットワークを解析した結果,PCの勾配は1次勾配とガウス・ニュートン様勾配の間に介在していることが判明した。
我々は、特定の標準設定において、無限幅制限のPCは、一階勾配とよりよく似た振る舞いをすることを示した。
論文 参考訳(メタデータ) (2024-11-04T11:38:27Z) - GLinSAT: The General Linear Satisfiability Neural Network Layer By Accelerated Gradient Descent [12.409030267572243]
まず、エントロピー規則化線形計画問題として、ニューラルネットワーク出力予測問題を再構成する。
数値的性能向上を伴う高速化勾配降下アルゴリズムに基づいて,その問題を解決するため,アーキテクチャGLinSATを提案する。
これは、すべての操作が微分可能で行列分解自由な、最初の一般線形満足層である。
論文 参考訳(メタデータ) (2024-09-26T03:12:53Z) - The Convex Landscape of Neural Networks: Characterizing Global Optima
and Stationary Points via Lasso Models [75.33431791218302]
ディープニューラルネットワーク(DNN)モデルは、プログラミング目的に使用される。
本稿では,凸型神経回復モデルについて検討する。
定常的非次元目的物はすべて,グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
また, 静止非次元目的物はすべて, グローバルサブサンプリング型凸解法プログラムとして特徴付けられることを示す。
論文 参考訳(メタデータ) (2023-12-19T23:04:56Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - A max-affine spline approximation of neural networks using the Legendre
transform of a convex-concave representation [0.3007949058551534]
本研究では,ニューラルネットワークをスプライン表現に変換する新しいアルゴリズムを提案する。
唯一の制約は、函数が有界で、よく定義された第二微分を持つことである。
また、各レイヤ上で独立してではなく、ネットワーク全体にわたって実行することもできる。
論文 参考訳(メタデータ) (2023-07-16T17:01:20Z) - On the Global Convergence of Natural Actor-Critic with Two-layer Neural
Network Parametrization [38.32265770020665]
本稿では,ニューラルネットワークを用いた自然なアクター批判アルゴリズムについて検討する。
本研究の目的は,本アルゴリズムの性能特性のより深い理解を実現することにある。
論文 参考訳(メタデータ) (2023-06-18T06:22:04Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Convolutional Proximal Neural Networks and Plug-and-Play Algorithms [0.225596179391365]
本稿では,畳み込み近位ニューラルネットワーク(cPNN)を紹介する。
完全長さのフィルタに対しては、CPNNを訓練するスティフェル多様体の部分多様体を提案する。
次に,所定のリプシッツ定数を持つcPNNを用いて信号画像の分解を行う方法について検討した。
論文 参考訳(メタデータ) (2020-11-04T13:32:46Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。