論文の概要: Pretraining Deformable Image Registration Networks with Random Images
- arxiv url: http://arxiv.org/abs/2505.24167v1
- Date: Fri, 30 May 2025 03:22:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.74894
- Title: Pretraining Deformable Image Registration Networks with Random Images
- Title(参考訳): ランダム画像を用いた変形可能な画像登録ネットワークの事前学習
- Authors: Junyu Chen, Shuwen Wei, Yihao Liu, Aaron Carass, Yong Du,
- Abstract要約: 近年の深層学習に基づく医用画像登録の進歩は、深層ニューラルネットワークの訓練が必ずしも医用画像を必要とするとは限らないことを示している。
本稿では,画像登録のための基礎モデルを事前学習するためのプロキシタスクとして,ランダム画像間の登録を提案する。
- 参考スコア(独自算出の注目度): 10.071355308700232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in deep learning-based medical image registration have shown that training deep neural networks~(DNNs) does not necessarily require medical images. Previous work showed that DNNs trained on randomly generated images with carefully designed noise and contrast properties can still generalize well to unseen medical data. Building on this insight, we propose using registration between random images as a proxy task for pretraining a foundation model for image registration. Empirical results show that our pretraining strategy improves registration accuracy, reduces the amount of domain-specific data needed to achieve competitive performance, and accelerates convergence during downstream training, thereby enhancing computational efficiency.
- Abstract(参考訳): 近年の深層学習に基づく医用画像登録の進歩により、深層ニューラルネットワーク(DNN)の訓練は必ずしも医用画像を必要としないことが示されている。
これまでの研究は、慎重に設計されたノイズとコントラスト特性を持つランダムに生成された画像に基づいて訓練されたDNNが、まだ見えない医療データに対してうまく一般化できることを示した。
この知見に基づいて,画像登録のための基礎モデルを事前学習するためのプロキシタスクとして,ランダム画像間の登録を提案する。
実験の結果,事前学習戦略は登録精度を向上し,競争性能を達成するために必要なドメイン固有データ量を削減し,下流トレーニング時の収束を加速し,計算効率を向上することが示された。
関連論文リスト
- Enhancing pretraining efficiency for medical image segmentation via transferability metrics [0.0]
医用画像のセグメンテーションタスクでは、ラベル付きトレーニングデータの不足が大きな課題となっている。
本稿では,事前学習したモデルが対象データをいかに頑健に表現できるかを計測する,対照的な学習に基づく新しい伝達可能性指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T12:11:52Z) - Recurrent Inference Machine for Medical Image Registration [11.351457718409788]
本稿では,リカレント推論画像登録(RIIR)ネットワークと呼ばれる新しい画像登録手法を提案する。
RIIRは、メタラーニングによる登録問題の解法として反復的に定式化される。
実験の結果、RIIRはトレーニングデータの5%しか持たない深層学習法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-19T10:06:35Z) - Joint segmentation and discontinuity-preserving deformable registration:
Application to cardiac cine-MR images [74.99415008543276]
多くの深層学習に基づく登録法は、変形場は画像領域の至る所で滑らかで連続的であると仮定する。
本研究では,この課題に対処するために,不連続かつ局所的に滑らかな変形場を確保するための新しい不連続保存画像登録手法を提案する。
入力画像の構造的相関を学習するために,ネットワークのセグメンテーション成分にコアテンションブロックを提案する。
大規模心磁気共鳴画像系列を用いた物体内時間画像登録の課題について検討した。
論文 参考訳(メタデータ) (2022-11-24T23:45:01Z) - Is Deep Image Prior in Need of a Good Education? [57.3399060347311]
画像再構成に有効な先行画像として, 奥行き画像が導入された。
その印象的な再建性にもかかわらず、学習技術や伝統的な再建技術と比べてアプローチは遅い。
計算課題に対処する2段階の学習パラダイムを開発する。
論文 参考訳(メタデータ) (2021-11-23T15:08:26Z) - A Deep Discontinuity-Preserving Image Registration Network [73.03885837923599]
ほとんどの深層学習に基づく登録法は、所望の変形場が全世界的に滑らかで連続的であると仮定する。
本稿では、より優れた登録性能とリアルな変形場を得るために、弱い教師付き深部不連続保存画像登録ネットワーク(DDIR)を提案する。
本研究では, 心臓磁気共鳴(MR)画像の登録実験において, 登録精度を大幅に向上し, より現実的な変形を予測できることを実証した。
論文 参考訳(メタデータ) (2021-07-09T13:35:59Z) - CAR-Net: Unsupervised Co-Attention Guided Registration Network for Joint
Registration and Structure Learning [73.03885837923599]
我々は,新しい深層学習ネットワークCAR-Net(Co-Attention Guided Registration Network)を提案する。
CAR-Netはコアテンションブロックを用いて入力の新しい表現を学習し、固定画像と移動画像の登録を駆動する。
イギリスバイオバンクの心臓磁気共鳴画像データを用いた実験により、CAR-Netは最先端の教師なし登録法よりも高い登録精度とスムーズな変形場が得られることが示された。
論文 参考訳(メタデータ) (2021-06-11T23:25:49Z) - A low-rank representation for unsupervised registration of medical
images [10.499611180329804]
本稿では,低ランク表現,すなわちRegnet-LRRに基づく新しい手法を提案する。
低ランク表現は、モデルの能力と堅牢性を高め、ノイズの多いデータ登録シナリオにおいて大幅な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-05-20T07:04:10Z) - Test-Time Training for Deformable Multi-Scale Image Registration [15.523457398508263]
VoxelMorphのようなディープラーニングベースの登録アプローチが出現し、競争パフォーマンスを達成しています。
従来の学習型登録モデルの一般化能力を向上させるために, デフォーマブル画像登録のためのテストタイムトレーニングを構築した。
論文 参考訳(メタデータ) (2021-03-25T03:22:59Z) - Self-Supervised Pretraining Improves Self-Supervised Pretraining [83.1423204498361]
自己教師付き事前トレーニングには、高価で長い計算と大量のデータが必要で、データ拡張に敏感である。
本稿では,既存の事前学習モデルを用いて事前学習プロセスを初期化することにより,収束時間を短縮し,精度を向上させる階層的事前学習(HPT)について検討する。
HPTが最大80倍速く収束し、タスク全体の精度が向上し、自己監視された事前トレーニングプロセスの堅牢性が、画像増強ポリシーまたは事前トレーニングデータの量の変化に改善されることを示します。
論文 参考訳(メタデータ) (2021-03-23T17:37:51Z) - FDRN: A Fast Deformable Registration Network for Medical Images [3.3504365823045044]
本稿では,高速な畳み込みニューラルネットワークを提案する。
FDRNは、コンパクトなネットワーク構造と効率的な学習により、既存の脳MR画像の最先端登録方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-04T14:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。