論文の概要: Optron: Better Medical Image Registration via Optimizing in the Loop
- arxiv url: http://arxiv.org/abs/2308.15216v2
- Date: Sun, 17 Sep 2023 19:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 22:26:51.392638
- Title: Optron: Better Medical Image Registration via Optimizing in the Loop
- Title(参考訳): optron: ループ内の最適化による医用画像登録の改善
- Authors: Yicheng Chen, Shengxiang Ji, Yuelin Xin, Kun Han, Xiaohui Xie
- Abstract要約: 本稿では,ループ内最適化のアイデアを取り入れた一般的なトレーニングアーキテクチャであるOptronを紹介する。
トレーニングループのプラグアンドプレイモジュールを通じてディープラーニングモデルの予測結果を反復的に最適化することにより、Optronは擬似基底真理を導入する。
我々はIXIデータセットの最先端性能を達成し、従来の最先端手法であるTransMorphを1.6%の差で改善した。
- 参考スコア(独自算出の注目度): 15.35199642275687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previously, in the field of image registration, there are mainly two
paradigms, the traditional optimization-based methods, and the
deep-learning-based methods. We designed a robust training architecture that is
simple and generalizable. We present Optron, a general training architecture
incorporating the idea of optimizing-in-the-loop. By iteratively optimizing the
prediction result of a deep learning model through a plug-and-play optimizer
module in the training loop, Optron introduces pseudo ground truth to an
unsupervised training process. This pseudo supervision provides more direct
guidance towards model training compared with unsupervised methods. Utilizing
this advantage, Optron can consistently improve the models' performance and
convergence speed. We evaluated our method on various combinations of models
and datasets, and we have achieved state-of-the-art performance on the IXI
dataset, improving the previous state-of-the-art method TransMorph by a
significant margin of +1.6% DSC. Moreover, Optron also consistently achieved
positive results with other models and datasets. It increases the validation
DSC on IXI for VoxelMorph and ViT-V-Net by +2.3% and +2.2% respectively,
demonstrating our method's generalizability. Our implementation is publicly
available at https://github.com/miraclefactory/optron
- Abstract(参考訳): 従来,画像登録の分野では,従来の最適化手法とディープラーニング方式の2つのパラダイムが主流であった。
シンプルで一般化可能な堅牢なトレーニングアーキテクチャを設計しました。
ループを最適化するアイデアを取り入れた一般的なトレーニングアーキテクチャであるOptronを提案する。
トレーニングループのプラグアンドプレイオプティマイザモジュールを通じて、ディープラーニングモデルの予測結果を反復的に最適化することにより、教師なしのトレーニングプロセスに擬似基底真理を導入する。
この疑似監督は、教師なしのメソッドと比較して、モデルトレーニングに対するより直接的なガイダンスを提供する。
この利点を利用して、Optronは一貫してモデルの性能と収束速度を改善することができる。
本手法はモデルとデータセットの様々な組み合わせで評価し, ixiデータセット上での最先端性能を実現し, 従来手法のトランスモーフを+1.6%dscで大幅に改善した。
さらに、Optronは他のモデルやデータセットで一貫してポジティブな結果を得た。
これはVoxelMorph と ViT-V-Net の IXI 上の検証 DSC を +2.3% と +2.2% で増加させ、この手法の一般化可能性を示している。
私たちの実装はhttps://github.com/miraclefactory/optronで公開しています。
関連論文リスト
- Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Stochastic Planner-Actor-Critic for Unsupervised Deformable Image
Registration [33.72954116727303]
本稿では,大きく変形する医療画像の段階的登録を行う,新しい強化学習ベースのフレームワークを提案する。
本手法は2次元および3次元の医用画像データセットを用いて評価し,その一部は大きな変形を含む。
論文 参考訳(メタデータ) (2021-12-14T14:08:56Z) - Learning Rich Nearest Neighbor Representations from Self-supervised
Ensembles [60.97922557957857]
推論時間における勾配降下から直接表現を学習する新しい手法により、自己教師付きモデルアンサンブルを行うためのフレームワークを提供する。
この技術は、ドメイン内のデータセットと転送設定の両方において、k-nearestの隣人によって測定されるように、表現品質を改善する。
論文 参考訳(メタデータ) (2021-10-19T22:24:57Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Deep Optimized Priors for 3D Shape Modeling and Reconstruction [38.79018852887249]
3Dモデリングと再構築のための新しい学習フレームワークを紹介します。
提案手法は,事前訓練によって制約された障壁を効果的に破壊することを示す。
論文 参考訳(メタデータ) (2020-12-14T03:56:31Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Deform-GAN:An Unsupervised Learning Model for Deformable Registration [4.030402376540977]
本稿では,教師なし学習を利用した3次元医用画像の非剛性登録手法を提案する。
提案した勾配損失は、大きな変形のためのシーケンスやモーダルにわたって頑健である。
トレーニング中は、接地や手動のラベリングは必要とされない。
論文 参考訳(メタデータ) (2020-02-26T12:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。