論文の概要: Inverse Problems with Learned Forward Operators
- arxiv url: http://arxiv.org/abs/2311.12528v1
- Date: Tue, 21 Nov 2023 11:15:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 01:07:27.584682
- Title: Inverse Problems with Learned Forward Operators
- Title(参考訳): 学習前向き演算子の逆問題
- Authors: Simon Arridge, Andreas Hauptmann, Yury Korolev
- Abstract要約: 本章は、2つの異なるパラダイムに従う学習前方演算子による逆問題における再構成手法についてレビューする。
射影による正規化の枠組みは、再構成を見つけるために使われる。
両方のメソッドは、フォワード演算子だけでなく、アジョイントのためにもトレーニングデータを必要とする。
- 参考スコア(独自算出の注目度): 2.4298908211088075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving inverse problems requires knowledge of the forward operator, but
accurate models can be computationally expensive and hence cheaper variants are
desired that do not compromise reconstruction quality. This chapter reviews
reconstruction methods in inverse problems with learned forward operators that
follow two different paradigms. The first one is completely agnostic to the
forward operator and learns its restriction to the subspace spanned by the
training data. The framework of regularisation by projection is then used to
find a reconstruction. The second one uses a simplified model of the physics of
the measurement process and only relies on the training data to learn a model
correction. We present the theory of these two approaches and compare them
numerically. A common theme emerges: both methods require, or at least benefit
from, training data not only for the forward operator, but also for its
adjoint.
- Abstract(参考訳): 逆問題を解くにはフォワード演算子の知識が必要であるが、正確なモデルは計算コストが高いため、再構成品質を損なうことのない安価な変種が望まれる。
本章は、2つの異なるパラダイムに従う学習前方演算子による逆問題における再構成手法についてレビューする。
最初のものはフォワードオペレータには完全に依存せず、トレーニングデータにまたがるサブスペースへの制限を学習する。
投影による正規化の枠組みは、再構成を見つけるために使われる。
2つ目は、測定プロセスの物理の単純化されたモデルを使用し、モデルの修正を学ぶためにトレーニングデータのみに依存する。
これら2つのアプローチの理論を数値的に比較する。
どちらのメソッドも、フォワードオペレータだけでなく、そのアジョイントにもトレーニングデータを必要としたり、あるいは恩恵を受けたりします。
関連論文リスト
- Parameter-Efficient and Memory-Efficient Tuning for Vision Transformer: A Disentangled Approach [87.8330887605381]
本稿では,学習可能なパラメータをわずかに限定して,事前学習した視覚変換器を下流認識タスクに適用する方法を示す。
学習可能で軽量なモジュールを用いてタスク固有のクエリを合成する。
本手法はメモリ制約下での最先端性能を実現し,実環境における適用性を示す。
論文 参考訳(メタデータ) (2024-07-09T15:45:04Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - Toward Theoretical Guidance for Two Common Questions in Practical
Cross-Validation based Hyperparameter Selection [72.76113104079678]
クロスバリデーションに基づくハイパーパラメータ選択における2つの一般的な質問に対する最初の理論的治療について述べる。
これらの一般化は、少なくとも、常に再トレーニングを行うか、再トレーニングを行わないかを常に実行可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T16:37:12Z) - What learning algorithm is in-context learning? Investigations with
linear models [87.91612418166464]
本稿では,トランスフォーマーに基づくインコンテキスト学習者が標準学習アルゴリズムを暗黙的に実装する仮説について検討する。
訓練された文脈内学習者は、勾配降下、隆起回帰、および正確な最小二乗回帰によって計算された予測値と密に一致していることを示す。
文脈内学習者がこれらの予測器とアルゴリズム的特徴を共有するという予備的証拠。
論文 参考訳(メタデータ) (2022-11-28T18:59:51Z) - Mixture Manifold Networks: A Computationally Efficient Baseline for
Inverse Modeling [7.891408798179181]
汎用逆問題に対処する新しい手法を提案する。
近年の研究では、ディープラーニングによる顕著な結果が示されているが、モデルの性能と計算時間との間にはトレードオフがある。
論文 参考訳(メタデータ) (2022-11-25T20:18:07Z) - Transformer Meets Boundary Value Inverse Problems [4.165221477234755]
変圧器を用いた深部直接サンプリング法は境界値逆問題のクラスを解くために提案される。
慎重に設計されたデータと再構成された画像の間に学習した逆演算子を評価することにより、リアルタイムな再構成を実現する。
論文 参考訳(メタデータ) (2022-09-29T17:45:25Z) - Analyzing Transformers in Embedding Space [59.434807802802105]
学習したトランスフォーマーの全てのパラメータを埋め込み空間に投影することで解釈する理論解析を提案する。
予め訓練されたモデルと微調整されたモデルの両方のパラメータを埋め込み空間で解釈できることを示す。
我々の発見は、少なくとも部分的には、モデル仕様から抽象化し、埋め込み空間でのみ動作する解釈手法への扉を開く。
論文 参考訳(メタデータ) (2022-09-06T14:36:57Z) - Transfer Learning via Test-Time Neural Networks Aggregation [11.42582922543676]
ディープニューラルネットワークが従来の機械学習より優れていることが示されている。
ディープ・ネットワークは一般性に欠けており、異なる分布から引き出された新しい(テスト)セットでは性能が良くない。
論文 参考訳(メタデータ) (2022-06-27T15:46:05Z) - Sampling Theorems for Unsupervised Learning in Linear Inverse Problems [11.54982866872911]
本稿では,部分的測定から信号モデルを学ぶための必要十分かつ十分なサンプリング条件を提案する。
私たちの結果は学習アルゴリズムを知らないので、不完全なデータから学習する基本的な限界に光を当てています。
論文 参考訳(メタデータ) (2022-03-23T16:17:22Z) - Deep learning for inverse problems with unknown operator [0.0]
フォワード演算子$T$が未知の逆問題では、関数$f_i$とノイズの多いイメージ$Tf_i$からなるトレーニングデータにアクセスできます。
本稿では,データに最小限の仮定を必要とする新しい手法を提案し,学習点数と雑音レベルに依存する再現率を示す。
論文 参考訳(メタデータ) (2021-08-05T17:21:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。