論文の概要: Optron: Better Medical Image Registration via Training in the Loop
- arxiv url: http://arxiv.org/abs/2308.15216v1
- Date: Tue, 29 Aug 2023 11:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 14:27:14.333801
- Title: Optron: Better Medical Image Registration via Training in the Loop
- Title(参考訳): Optron: ループでのトレーニングによる医用画像のレジストレーションの改善
- Authors: Yicheng Chen, Shengxiang Ji, Yuelin Xin, Kun Han, Xiaohui Xie
- Abstract要約: トレーニング・イン・ザ・ループのアイデアを取り入れた一般的なトレーニングアーキテクチャであるOptronを紹介する。
トレーニングループのプラグアンドプレイモジュールを通じてディープラーニングモデルの予測結果を反復的に最適化することにより、Optronは擬似基底真理を導入する。
我々はIXIデータセットの最先端性能を達成し、従来の最先端手法であるTransMorphを1.6%の差で改善した。
- 参考スコア(独自算出の注目度): 15.35199642275687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previously, in the field of medical image registration, there are primarily
two paradigms, the traditional optimization-based methods, and the
deep-learning-based methods. Each of these paradigms has its advantages, and in
this work, we aim to take the best of both worlds. Instead of developing a new
deep learning model, we designed a robust training architecture that is simple
and generalizable. We present Optron, a general training architecture
incorporating the idea of training-in-the-loop. By iteratively optimizing the
prediction result of a deep learning model through a plug-and-play optimizer
module in the training loop, Optron introduces pseudo ground truth to an
unsupervised training process. And by bringing the training process closer to
that of supervised training, Optron can consistently improve the models'
performance and convergence speed. We evaluated our method on various
combinations of models and datasets, and we have achieved state-of-the-art
performance on the IXI dataset, improving the previous state-of-the-art method
TransMorph by a significant margin of +1.6% DSC. Moreover, Optron also
consistently achieved positive results with other models and datasets. It
increases the validation DSC for VoxelMorph and ViT-V-Net by +2.3% and +2.2%
respectively on IXI, demonstrating our method's generalizability. Our
implementation is publicly available at
https://github.com/miraclefactory/optron
- Abstract(参考訳): これまで、医用画像登録の分野では、主に2つのパラダイム、従来の最適化ベースの方法とディープラーニングベースの方法があった。
これらのパラダイムにはそれぞれ長所があり、本研究では両方の世界を最大限に活用することを目指しています。
新しいディープラーニングモデルを開発する代わりに、シンプルで一般化可能な堅牢なトレーニングアーキテクチャを設計しました。
我々は,ループ内トレーニングの概念を組み込んだ一般的なトレーニングアーキテクチャである optron を提案する。
トレーニングループのプラグアンドプレイオプティマイザモジュールを通じて、ディープラーニングモデルの予測結果を反復的に最適化することにより、教師なしのトレーニングプロセスに擬似基底真理を導入する。
また、トレーニングプロセスを教師付きトレーニングに近づけることで、モデルのパフォーマンスと収束速度を継続的に改善することができる。
本手法はモデルとデータセットの様々な組み合わせで評価し, ixiデータセット上での最先端性能を実現し, 従来手法のトランスモーフを+1.6%dscで大幅に改善した。
さらに、Optronは他のモデルやデータセットで一貫してポジティブな結果を得た。
これは、VoxelMorph と ViT-V-Net の検証 DSC を、それぞれ IXI 上で +2.3% と +2.2% に増加させ、我々の方法の一般化可能性を示している。
私たちの実装はhttps://github.com/miraclefactory/optronで公開しています。
関連論文リスト
- Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Stochastic Planner-Actor-Critic for Unsupervised Deformable Image
Registration [33.72954116727303]
本稿では,大きく変形する医療画像の段階的登録を行う,新しい強化学習ベースのフレームワークを提案する。
本手法は2次元および3次元の医用画像データセットを用いて評価し,その一部は大きな変形を含む。
論文 参考訳(メタデータ) (2021-12-14T14:08:56Z) - Learning Rich Nearest Neighbor Representations from Self-supervised
Ensembles [60.97922557957857]
推論時間における勾配降下から直接表現を学習する新しい手法により、自己教師付きモデルアンサンブルを行うためのフレームワークを提供する。
この技術は、ドメイン内のデータセットと転送設定の両方において、k-nearestの隣人によって測定されるように、表現品質を改善する。
論文 参考訳(メタデータ) (2021-10-19T22:24:57Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Deep Optimized Priors for 3D Shape Modeling and Reconstruction [38.79018852887249]
3Dモデリングと再構築のための新しい学習フレームワークを紹介します。
提案手法は,事前訓練によって制約された障壁を効果的に破壊することを示す。
論文 参考訳(メタデータ) (2020-12-14T03:56:31Z) - Learning Deformable Image Registration from Optimization: Perspective,
Modules, Bilevel Training and Beyond [62.730497582218284]
マルチスケールの伝搬により微分同相モデルを最適化する,新しいディープラーニングベースのフレームワークを開発した。
我々は,脳MRIデータにおける画像-アトラス登録,肝CTデータにおける画像-画像登録を含む,3次元ボリュームデータセットにおける画像登録実験の2つのグループを実行する。
論文 参考訳(メタデータ) (2020-04-30T03:23:45Z) - Deform-GAN:An Unsupervised Learning Model for Deformable Registration [4.030402376540977]
本稿では,教師なし学習を利用した3次元医用画像の非剛性登録手法を提案する。
提案した勾配損失は、大きな変形のためのシーケンスやモーダルにわたって頑健である。
トレーニング中は、接地や手動のラベリングは必要とされない。
論文 参考訳(メタデータ) (2020-02-26T12:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。