論文の概要: Optron: Better Medical Image Registration via Training in the Loop
- arxiv url: http://arxiv.org/abs/2308.15216v1
- Date: Tue, 29 Aug 2023 11:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 14:27:14.333801
- Title: Optron: Better Medical Image Registration via Training in the Loop
- Title(参考訳): Optron: ループでのトレーニングによる医用画像のレジストレーションの改善
- Authors: Yicheng Chen, Shengxiang Ji, Yuelin Xin, Kun Han, Xiaohui Xie
- Abstract要約: トレーニング・イン・ザ・ループのアイデアを取り入れた一般的なトレーニングアーキテクチャであるOptronを紹介する。
トレーニングループのプラグアンドプレイモジュールを通じてディープラーニングモデルの予測結果を反復的に最適化することにより、Optronは擬似基底真理を導入する。
我々はIXIデータセットの最先端性能を達成し、従来の最先端手法であるTransMorphを1.6%の差で改善した。
- 参考スコア(独自算出の注目度): 15.35199642275687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previously, in the field of medical image registration, there are primarily
two paradigms, the traditional optimization-based methods, and the
deep-learning-based methods. Each of these paradigms has its advantages, and in
this work, we aim to take the best of both worlds. Instead of developing a new
deep learning model, we designed a robust training architecture that is simple
and generalizable. We present Optron, a general training architecture
incorporating the idea of training-in-the-loop. By iteratively optimizing the
prediction result of a deep learning model through a plug-and-play optimizer
module in the training loop, Optron introduces pseudo ground truth to an
unsupervised training process. And by bringing the training process closer to
that of supervised training, Optron can consistently improve the models'
performance and convergence speed. We evaluated our method on various
combinations of models and datasets, and we have achieved state-of-the-art
performance on the IXI dataset, improving the previous state-of-the-art method
TransMorph by a significant margin of +1.6% DSC. Moreover, Optron also
consistently achieved positive results with other models and datasets. It
increases the validation DSC for VoxelMorph and ViT-V-Net by +2.3% and +2.2%
respectively on IXI, demonstrating our method's generalizability. Our
implementation is publicly available at
https://github.com/miraclefactory/optron
- Abstract(参考訳): これまで、医用画像登録の分野では、主に2つのパラダイム、従来の最適化ベースの方法とディープラーニングベースの方法があった。
これらのパラダイムにはそれぞれ長所があり、本研究では両方の世界を最大限に活用することを目指しています。
新しいディープラーニングモデルを開発する代わりに、シンプルで一般化可能な堅牢なトレーニングアーキテクチャを設計しました。
我々は,ループ内トレーニングの概念を組み込んだ一般的なトレーニングアーキテクチャである optron を提案する。
トレーニングループのプラグアンドプレイオプティマイザモジュールを通じて、ディープラーニングモデルの予測結果を反復的に最適化することにより、教師なしのトレーニングプロセスに擬似基底真理を導入する。
また、トレーニングプロセスを教師付きトレーニングに近づけることで、モデルのパフォーマンスと収束速度を継続的に改善することができる。
本手法はモデルとデータセットの様々な組み合わせで評価し, ixiデータセット上での最先端性能を実現し, 従来手法のトランスモーフを+1.6%dscで大幅に改善した。
さらに、Optronは他のモデルやデータセットで一貫してポジティブな結果を得た。
これは、VoxelMorph と ViT-V-Net の検証 DSC を、それぞれ IXI 上で +2.3% と +2.2% に増加させ、我々の方法の一般化可能性を示している。
私たちの実装はhttps://github.com/miraclefactory/optronで公開しています。
関連論文リスト
- Self-Supervised Radio Pre-training: Toward Foundational Models for Spectrogram Learning [6.1339395157466425]
Foundational Deep Learning(DL)モデルは、多種多様で多様なデータセットに基づいてトレーニングされた一般的なモデルである。
本稿では,無線信号を用いた基礎DLモデルの事前学習のための,新しい自己教師型学習手法であるMasked Spectrogram Modelingを紹介する。
論文 参考訳(メタデータ) (2024-11-14T23:56:57Z) - Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Test-time adaptation for geospatial point cloud semantic segmentation with distinct domain shifts [6.80671668491958]
テスト時間適応(TTA)は、ソースデータへのアクセスや追加のトレーニングなしに、推論段階でラベル付けされていないデータに事前訓練されたモデルの直接適応を可能にする。
本稿では,3つの領域シフトパラダイムを提案する。光グラムから空気中LiDAR,空気中LiDAR,合成-移動レーザー走査である。
実験の結果,分類精度は最大20%mIoUに向上し,他の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-08T15:40:28Z) - Diffusion Model Driven Test-Time Image Adaptation for Robust Skin Lesion Classification [24.08402880603475]
テストデータ上でのモデルの精度を高めるためのテスト時間画像適応手法を提案する。
拡散モデルを用いて、対象の試験画像をソース領域に投影して修正する。
私たちの手法は、さまざまな汚職、アーキテクチャ、データレシエーションにおいて、堅牢性をより堅牢にします。
論文 参考訳(メタデータ) (2024-05-18T13:28:51Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - PrIU: A Provenance-Based Approach for Incrementally Updating Regression
Models [9.496524884855559]
本稿では,予測精度を犠牲にすることなく,モデルパラメータを漸進的に更新する手法PrIUを提案する。
漸進的に更新されたモデルパラメータの正しさと収束性を証明し、実験的に検証する。
実験結果から, PrIU-optはスクラッチからモデルを再トレーニングするのに対して, 非常に類似したモデルを得るよりも, 最大2桁のスピードアップを達成できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T21:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。