論文の概要: Stochastic Optimisation Framework using the Core Imaging Library and Synergistic Image Reconstruction Framework for PET Reconstruction
- arxiv url: http://arxiv.org/abs/2406.15159v1
- Date: Fri, 21 Jun 2024 14:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 12:34:06.792736
- Title: Stochastic Optimisation Framework using the Core Imaging Library and Synergistic Image Reconstruction Framework for PET Reconstruction
- Title(参考訳): PET画像再構成のためのコアイメージングライブラリと相乗的画像再構成フレームワークを用いた確率的最適化フレームワーク
- Authors: Evangelos Papoutsellis, Casper da Costa-Luis, Daniel Deidda, Claire Delplancke, Margaret Duff, Gemma Fardell, Ashley Gillman, Jakob S. Jørgensen, Zeljko Kereta, Evgueni Ovtchinnikov, Edoardo Pasca, Georg Schramm, Kris Thielemans,
- Abstract要約: 我々は,オープンソースのCore Imaging Library (CIL) にフレームワークを導入し,アルゴリズムの開発を容易にする。
5つのアルゴリズム、Gradient Descent, Average Gradient (-Am'elior'e), (Loopless) Variance Reduced Gradientが開発されている。
シミュレーションされた2次元PETデータセット上で, 決定論的アルゴリズムに対する比較研究を行い, フレームワークの機能について紹介する。
- 参考スコア(独自算出の注目度): 1.184960379507211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a stochastic framework into the open--source Core Imaging Library (CIL) which enables easy development of stochastic algorithms. Five such algorithms from the literature are developed, Stochastic Gradient Descent, Stochastic Average Gradient (-Am\'elior\'e), (Loopless) Stochastic Variance Reduced Gradient. We showcase the functionality of the framework with a comparative study against a deterministic algorithm on a simulated 2D PET dataset, with the use of the open-source Synergistic Image Reconstruction Framework. We observe that stochastic optimisation methods can converge in fewer passes of the data than a standard deterministic algorithm.
- Abstract(参考訳): 我々は,オープンソースのCore Imaging Library(CIL)に確率的フレームワークを導入し,確率的アルゴリズムの開発を容易にする。
文献から得られた5つのアルゴリズム、確率勾配 Descent, Stochastic Average Gradient (-Am\'elior\'e), (Loopless) Stochastic Variance Reduced Gradient が開発された。
本稿では,オープンソースのSynergistic Image Reconstruction Frameworkを用いて,シミュレーションされた2次元PETデータセット上の決定論的アルゴリズムとの比較検討を行った。
我々は,確率的最適化手法が標準的な決定論的アルゴリズムよりも少ないパスで収束できることを観察する。
関連論文リスト
- Convergence Properties of Score-Based Models for Linear Inverse Problems Using Graduated Optimisation [44.99833362998488]
本稿では,スコアベース生成モデル(SGM)を用いて逆問題の解法を提案する。
初期値とは無関係に,高Ms画像の復元が可能であることを示す。
ソースはGitHubで公開されている。
論文 参考訳(メタデータ) (2024-04-29T13:47:59Z) - Beyond Single-Model Views for Deep Learning: Optimization versus
Generalizability of Stochastic Optimization Algorithms [13.134564730161983]
本稿では、勾配降下(SGD)とその変種に着目し、ディープラーニングの最適化に新しいアプローチを採用する。
我々はSGDとその変種がSAMのような平らなミニマと同等の性能を示すことを示した。
本研究は、トレーニング損失とホールドアウト精度の関係、およびSGDとノイズ対応変種の性能について、いくつかの重要な知見を明らかにした。
論文 参考訳(メタデータ) (2024-03-01T14:55:22Z) - SAR image segmentation algorithms based on I-divergence-TV model [0.7458485930898191]
合成開口レーダ(SAR)画像を乗法ガンマノイズで分割するために,I-divergence-TVモデルに基づく新しい変動能動輪郭モデルを提案する。
提案したモデルでは,輪郭が弱いあるいはぼやけたエッジで効率的に停止でき,画像の外部境界や内部境界を自動的に検出することができる。
論文 参考訳(メタデータ) (2023-12-09T04:14:46Z) - Using Stochastic Gradient Descent to Smooth Nonconvex Functions: Analysis of Implicit Graduated Optimization [0.6906005491572401]
バッチ降下勾配 (SGD) における雑音は, 目的関数の平滑化の効果を示す。
我々は,学習率とバッチサイズによってスムース化の度合いが変化する新しい累積最適化アルゴリズムを解析する。
論文 参考訳(メタデータ) (2023-11-15T07:27:40Z) - Image Restoration with Mean-Reverting Stochastic Differential Equations [9.245782611878752]
本稿では,汎用画像復元のための微分方程式(SDE)を提案する。
対応する逆時間SDEをシミュレートすることにより、低画質画像の起源を復元することができる。
実験の結果,提案手法は画像の劣化, 劣化, 騒音の定量的比較において, 高い競争性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-01-27T13:20:48Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Fast Distributionally Robust Learning with Variance Reduced Min-Max
Optimization [85.84019017587477]
分散的ロバストな教師付き学習は、現実世界のアプリケーションのための信頼性の高い機械学習システムを構築するための重要なパラダイムとして登場している。
Wasserstein DRSLを解くための既存のアルゴリズムは、複雑なサブプロブレムを解くか、勾配を利用するのに失敗する。
我々はmin-max最適化のレンズを通してwaserstein drslを再検討し、スケーラブルで効率的に実装可能な超勾配アルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-04-27T16:56:09Z) - Solving Stochastic Compositional Optimization is Nearly as Easy as
Solving Stochastic Optimization [47.93365664380274]
本稿では,新たに修正された構成勾配法(SCSC)を提案する。
SCSCは単一ループで単一時間スケールで動作し、固定バッチサイズを使用し、非合成最適化のための勾配降下法(SGD)と同じ速度で収束することを保証している。
論文 参考訳(メタデータ) (2020-08-25T06:54:00Z) - A Flexible Framework for Designing Trainable Priors with Adaptive
Smoothing and Game Encoding [57.1077544780653]
我々は、前方通過を非滑らかな凸最適化問題として解釈できるニューラルネットワーク層の設計とトレーニングのための一般的なフレームワークを紹介する。
グラフのノードに代表されるローカルエージェントによって解決され、正規化関数を介して相互作用する凸ゲームに焦点を当てる。
このアプローチは、訓練可能なエンドツーエンドのディープモデル内で、古典的な画像の事前使用を可能にするため、画像の問題を解決するために魅力的である。
論文 参考訳(メタデータ) (2020-06-26T08:34:54Z) - Image Matching across Wide Baselines: From Paper to Practice [80.9424750998559]
局所的な特徴とロバストな推定アルゴリズムの包括的なベンチマークを導入する。
パイプラインのモジュール構造は、さまざまなメソッドの容易な統合、構成、組み合わせを可能にします。
適切な設定で、古典的な解決策は依然として芸術の知覚された状態を上回る可能性があることを示す。
論文 参考訳(メタデータ) (2020-03-03T15:20:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。