論文の概要: On-the-Fly Guidance Training for Medical Image Registration
- arxiv url: http://arxiv.org/abs/2308.15216v3
- Date: Sat, 18 Nov 2023 16:40:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 18:06:31.968796
- Title: On-the-Fly Guidance Training for Medical Image Registration
- Title(参考訳): 医用画像登録のためのオンザフライ指導
- Authors: Yicheng Chen, Shengxiang Ji, Yuelin Xin, Kun Han, Xiaohui Xie
- Abstract要約: 本研究は,弱い教師付きおよび教師なしの手法に固有の制約に対処し,学習に基づく画像登録の領域における新たなアプローチを探求する。
本研究は,既存のモデルを強化するために,textbfOn-the-Fly Guidance (OFG) を用いたユニークなトレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.35199642275687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research explores a novel approach in the realm of learning-based image
registration, addressing the limitations inherent in weakly-supervised and
unsupervised methods. Weakly-supervised techniques depend heavily on scarce
labeled data, while unsupervised strategies rely on indirect measures of
accuracy through image similarity. Notably, traditional supervised learning is
not utilized due to the lack of precise deformation ground-truth in medical
imaging. Our study introduces a unique training framework with
\textbf{On-the-Fly Guidance} (OFG) to enhance existing models. This framework,
during training, generates pseudo-ground truth a few steps ahead by refining
the current deformation prediction with our custom optimizer. This
pseudo-ground truth then serves to directly supervise the model in a supervised
learning context. The process involves optimizing the predicted deformation
with a limited number of steps, ensuring training efficiency and setting
achievable goals for each training phase. OFG notably boosts the precision of
existing image registration techniques while maintaining the speed of
learning-based methods. We assessed our approach using various pseudo-ground
truth generation strategies, including predictions and optimized outputs from
established registration models. Our experiments spanned three benchmark
datasets and three cutting-edge models, with OFG demonstrating significant and
consistent enhancements, surpassing previous state-of-the-arts in the field.
OFG offers an easily integrable plug-and-play solution to enhance the training
effectiveness of learning-based image registration models. Code at
https://github.com/miraclefactory/on-the-fly-guidance.
- Abstract(参考訳): 本研究は,学習に基づく画像登録の分野において,弱い教師付きおよび教師なしの方法に固有の制限に対処した新しいアプローチを探求する。
弱教師付き手法は少ないラベル付きデータに大きく依存するが、教師なし戦略は画像類似性による間接的精度測定に依存する。
特に、従来の教師付き学習は、医療画像の正確な変形の欠如のために使われない。
本研究は,既存のモデルを強化するために,textbf{On-the-Fly Guidance} (OFG) を用いたユニークなトレーニングフレームワークを提案する。
このフレームワークは、トレーニング中に、我々のカスタムオプティマイザで現在の変形予測を精査することで、数ステップ前に擬似地下真実を生成する。
この疑似基底真理は、教師付き学習コンテキストでモデルを直接監督するのに役立ちます。
このプロセスでは、予測変形を限られたステップで最適化し、トレーニング効率を確保し、各トレーニングフェーズの達成可能な目標を設定する。
OFGは、学習ベースの手法の速度を維持しながら、既存の画像登録技術の精度を著しく向上させる。
提案手法は,既定登録モデルからの予測や最適化アウトプットを含む様々な疑似根拠真理生成戦略を用いて評価した。
実験は3つのベンチマークデータセットと3つの最先端モデルにまたがって行われた。
OFGは、学習に基づく画像登録モデルのトレーニング効率を高めるために、容易に統合可能なプラグアンドプレイソリューションを提供する。
コード: https://github.com/miraclefactory/on-the-fly-guidance.com
関連論文リスト
- Self-Supervised Radio Pre-training: Toward Foundational Models for Spectrogram Learning [6.1339395157466425]
Foundational Deep Learning(DL)モデルは、多種多様で多様なデータセットに基づいてトレーニングされた一般的なモデルである。
本稿では,無線信号を用いた基礎DLモデルの事前学習のための,新しい自己教師型学習手法であるMasked Spectrogram Modelingを紹介する。
論文 参考訳(メタデータ) (2024-11-14T23:56:57Z) - Representation Alignment for Generation: Training Diffusion Transformers Is Easier Than You Think [72.48325960659822]
生成のための大規模拡散モデルの訓練における主要なボトルネックは、これらの表現を効果的に学習することにある。
本稿では,RePresentation Alignment (REPA) と呼ばれる単純な正規化を導入し,ノイズの多い入力隠れ状態の投影を,外部の事前学習された視覚エンコーダから得られるクリーンな画像表現と整合させる手法を提案する。
我々の単純な戦略は、一般的な拡散やDiTsやSiTsといったフローベースのトランスフォーマーに適用した場合、トレーニング効率と生成品質の両方に大きな改善をもたらす。
論文 参考訳(メタデータ) (2024-10-09T14:34:53Z) - Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Test-time adaptation for geospatial point cloud semantic segmentation with distinct domain shifts [6.80671668491958]
テスト時間適応(TTA)は、ソースデータへのアクセスや追加のトレーニングなしに、推論段階でラベル付けされていないデータに事前訓練されたモデルの直接適応を可能にする。
本稿では,3つの領域シフトパラダイムを提案する。光グラムから空気中LiDAR,空気中LiDAR,合成-移動レーザー走査である。
実験の結果,分類精度は最大20%mIoUに向上し,他の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-07-08T15:40:28Z) - Diffusion Model Driven Test-Time Image Adaptation for Robust Skin Lesion Classification [24.08402880603475]
テストデータ上でのモデルの精度を高めるためのテスト時間画像適応手法を提案する。
拡散モデルを用いて、対象の試験画像をソース領域に投影して修正する。
私たちの手法は、さまざまな汚職、アーキテクチャ、データレシエーションにおいて、堅牢性をより堅牢にします。
論文 参考訳(メタデータ) (2024-05-18T13:28:51Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - PrIU: A Provenance-Based Approach for Incrementally Updating Regression
Models [9.496524884855559]
本稿では,予測精度を犠牲にすることなく,モデルパラメータを漸進的に更新する手法PrIUを提案する。
漸進的に更新されたモデルパラメータの正しさと収束性を証明し、実験的に検証する。
実験結果から, PrIU-optはスクラッチからモデルを再トレーニングするのに対して, 非常に類似したモデルを得るよりも, 最大2桁のスピードアップを達成できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T21:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。