論文の概要: Accelerating Plug-and-Play Image Reconstruction via Multi-Stage Sketched
Gradients
- arxiv url: http://arxiv.org/abs/2203.07308v1
- Date: Mon, 14 Mar 2022 17:12:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 17:47:08.003031
- Title: Accelerating Plug-and-Play Image Reconstruction via Multi-Stage Sketched
Gradients
- Title(参考訳): 多段スケッチ勾配によるプラグ・アンド・プレイ画像の高速化
- Authors: Junqi Tang
- Abstract要約: 本稿では,次元削減手法を用いて高速なプラグアンドプレイ(ランチ)アルゴリズムを設計するための新しいパラダイムを提案する。
加速度に勾配反復を利用する既存のアプローチとは異なり、我々は新しい多段階スケッチ勾配反復を提案する。
- 参考スコア(独自算出の注目度): 5.025654873456756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we propose a new paradigm for designing fast plug-and-play (PnP)
algorithms using dimensionality reduction techniques. Unlike existing
approaches which utilize stochastic gradient iterations for acceleration, we
propose novel multi-stage sketched gradient iterations which first perform
downsampling dimensionality reduction in the image space, and then efficiently
approximate the true gradient using the sketched gradient in the
low-dimensional space. This sketched gradient scheme can also be naturally
combined with PnP-SGD methods for further improvement on computational
complexity. As a generic acceleration scheme, it can be applied to accelerate
any existing PnP/RED algorithm. Our numerical experiments on X-ray fan-beam CT
demonstrate the remarkable effectiveness of our scheme, that a computational
free-lunch can be obtained using this dimensionality reduction in the image
space.
- Abstract(参考訳): 本研究では,次元削減技術を用いた高速プラグアンドプレイ(PnP)アルゴリズムの設計手法を提案する。
高速化に確率的勾配の反復を利用する既存の手法とは異なり,まず画像空間における次元のダウンサンプリングを行い,次に低次元空間におけるスケッチ的勾配を用いて真の勾配を効率的に近似する,新しい多段階スケッチ的勾配の反復を提案する。
このスケッチされた勾配スキームは自然にPnP-SGD法と組み合わせて計算複雑性をさらに改善することができる。
一般的な加速度スキームとして、既存のPnP/REDアルゴリズムを加速するために適用することができる。
x線ファンビームctを用いた数値実験により,この画像空間の次元低減により計算自由ルチが得られることを示す。
関連論文リスト
- Flattened one-bit stochastic gradient descent: compressed distributed optimization with controlled variance [55.01966743652196]
パラメータ・サーバ・フレームワークにおける圧縮勾配通信を用いた分散勾配降下(SGD)のための新しいアルゴリズムを提案する。
平坦な1ビット勾配勾配勾配法(FO-SGD)は2つの単純なアルゴリズムの考え方に依存している。
論文 参考訳(メタデータ) (2024-05-17T21:17:27Z) - Optimizing CT Scan Geometries With and Without Gradients [7.788823739816626]
勾配に基づく最適化アルゴリズムが、勾配のないアルゴリズムの代替となる可能性が示されている。
勾配に基づくアルゴリズムは、捕捉範囲と自由パラメータの数に対するロバスト性の観点から、勾配のないアルゴリズムに匹敵する一方で、かなり高速に収束する。
論文 参考訳(メタデータ) (2023-02-13T10:44:41Z) - Accelerating Deep Unrolling Networks via Dimensionality Reduction [5.73658856166614]
ディープ・アンローリング・ネットワークは現在、逆問題の画像化のための最先端のソリューションである。
X線CTやMRIなどの高次元イメージングタスクでは、ディープ・アンローリング・スキームは通常非効率になる。
本稿では,次元削減方式を用いた効率的なディープ・アンローリング・ネットワークを設計するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2022-08-31T11:45:21Z) - Orthogonalising gradients to speed up neural network optimisation [0.0]
ニューラルネットワークの最適化は、最適化ステップの前に勾配を直交させ、学習された表現の多様化を保証することで、スピンアップすることができる。
この手法を ImageNet と CIFAR-10 上でテストした結果,学習時間が大幅に減少し,半教師付き学習BarlowTwins の高速化が得られた。
論文 参考訳(メタデータ) (2022-02-14T21:46:07Z) - GraDIRN: Learning Iterative Gradient Descent-based Energy Minimization
for Deformable Image Registration [9.684786294246749]
変形可能な画像登録を学習するためのGraDIRN(Gradient Descent-based Image Registration Network)を提案する。
GraDIRNは多分解能勾配降下エネルギー最小化に基づいている。
本手法は,学習可能なパラメータを少なく抑えながら,最先端の登録性能を実現することを実証する。
論文 参考訳(メタデータ) (2021-12-07T14:48:31Z) - Communication-Efficient Federated Learning via Quantized Compressed
Sensing [82.10695943017907]
提案フレームワークは,無線機器の勾配圧縮とパラメータサーバの勾配再構成からなる。
勾配スペーシフィケーションと量子化により、我々の戦略は1ビット勾配圧縮よりも高い圧縮比を達成することができる。
圧縮を行わない場合とほぼ同じ性能を実現できることを示す。
論文 参考訳(メタデータ) (2021-11-30T02:13:54Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - DiffPD: Differentiable Projective Dynamics with Contact [65.88720481593118]
DiffPDは、暗黙の時間積分を持つ効率的な微分可能なソフトボディシミュレータである。
我々はDiffPDの性能を評価し,様々な応用における標準ニュートン法と比較して4~19倍のスピードアップを観測した。
論文 参考訳(メタデータ) (2021-01-15T00:13:33Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。