論文の概要: Optron: Better Medical Image Registration via Optimizing in the Loop
- arxiv url: http://arxiv.org/abs/2308.15216v2
- Date: Sun, 17 Sep 2023 19:57:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 22:26:51.392638
- Title: Optron: Better Medical Image Registration via Optimizing in the Loop
- Title(参考訳): optron: ループ内の最適化による医用画像登録の改善
- Authors: Yicheng Chen, Shengxiang Ji, Yuelin Xin, Kun Han, Xiaohui Xie
- Abstract要約: 本稿では,ループ内最適化のアイデアを取り入れた一般的なトレーニングアーキテクチャであるOptronを紹介する。
トレーニングループのプラグアンドプレイモジュールを通じてディープラーニングモデルの予測結果を反復的に最適化することにより、Optronは擬似基底真理を導入する。
我々はIXIデータセットの最先端性能を達成し、従来の最先端手法であるTransMorphを1.6%の差で改善した。
- 参考スコア(独自算出の注目度): 15.35199642275687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previously, in the field of image registration, there are mainly two
paradigms, the traditional optimization-based methods, and the
deep-learning-based methods. We designed a robust training architecture that is
simple and generalizable. We present Optron, a general training architecture
incorporating the idea of optimizing-in-the-loop. By iteratively optimizing the
prediction result of a deep learning model through a plug-and-play optimizer
module in the training loop, Optron introduces pseudo ground truth to an
unsupervised training process. This pseudo supervision provides more direct
guidance towards model training compared with unsupervised methods. Utilizing
this advantage, Optron can consistently improve the models' performance and
convergence speed. We evaluated our method on various combinations of models
and datasets, and we have achieved state-of-the-art performance on the IXI
dataset, improving the previous state-of-the-art method TransMorph by a
significant margin of +1.6% DSC. Moreover, Optron also consistently achieved
positive results with other models and datasets. It increases the validation
DSC on IXI for VoxelMorph and ViT-V-Net by +2.3% and +2.2% respectively,
demonstrating our method's generalizability. Our implementation is publicly
available at https://github.com/miraclefactory/optron
- Abstract(参考訳): 従来,画像登録の分野では,従来の最適化手法とディープラーニング方式の2つのパラダイムが主流であった。
シンプルで一般化可能な堅牢なトレーニングアーキテクチャを設計しました。
ループを最適化するアイデアを取り入れた一般的なトレーニングアーキテクチャであるOptronを提案する。
トレーニングループのプラグアンドプレイオプティマイザモジュールを通じて、ディープラーニングモデルの予測結果を反復的に最適化することにより、教師なしのトレーニングプロセスに擬似基底真理を導入する。
この疑似監督は、教師なしのメソッドと比較して、モデルトレーニングに対するより直接的なガイダンスを提供する。
この利点を利用して、Optronは一貫してモデルの性能と収束速度を改善することができる。
本手法はモデルとデータセットの様々な組み合わせで評価し, ixiデータセット上での最先端性能を実現し, 従来手法のトランスモーフを+1.6%dscで大幅に改善した。
さらに、Optronは他のモデルやデータセットで一貫してポジティブな結果を得た。
これはVoxelMorph と ViT-V-Net の IXI 上の検証 DSC を +2.3% と +2.2% で増加させ、この手法の一般化可能性を示している。
私たちの実装はhttps://github.com/miraclefactory/optronで公開しています。
関連論文リスト
- Self-Supervised Radio Pre-training: Toward Foundational Models for Spectrogram Learning [6.1339395157466425]
Foundational Deep Learning(DL)モデルは、多種多様で多様なデータセットに基づいてトレーニングされた一般的なモデルである。
本稿では,無線信号を用いた基礎DLモデルの事前学習のための,新しい自己教師型学習手法であるMasked Spectrogram Modelingを紹介する。
論文 参考訳(メタデータ) (2024-11-14T23:56:57Z) - Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Test-time adaptation for geospatial point cloud semantic segmentation with distinct domain shifts [6.80671668491958]
テスト時間適応(TTA)は、ソースデータへのアクセスや追加のトレーニングなしに、推論段階でラベル付けされていないデータに事前訓練されたモデルの直接適応を可能にする。
本稿では,3つの領域シフトパラダイムを提案する。光グラムから空気中LiDAR,空気中LiDAR,合成-移動レーザー走査である。
実験の結果,分類精度は最大20%mIoUに向上し,他の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-08T15:40:28Z) - Diffusion Model Driven Test-Time Image Adaptation for Robust Skin Lesion Classification [24.08402880603475]
テストデータ上でのモデルの精度を高めるためのテスト時間画像適応手法を提案する。
拡散モデルを用いて、対象の試験画像をソース領域に投影して修正する。
私たちの手法は、さまざまな汚職、アーキテクチャ、データレシエーションにおいて、堅牢性をより堅牢にします。
論文 参考訳(メタデータ) (2024-05-18T13:28:51Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - PrIU: A Provenance-Based Approach for Incrementally Updating Regression
Models [9.496524884855559]
本稿では,予測精度を犠牲にすることなく,モデルパラメータを漸進的に更新する手法PrIUを提案する。
漸進的に更新されたモデルパラメータの正しさと収束性を証明し、実験的に検証する。
実験結果から, PrIU-optはスクラッチからモデルを再トレーニングするのに対して, 非常に類似したモデルを得るよりも, 最大2桁のスピードアップを達成できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T21:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。