論文の概要: Data-Efficient Unsupervised Interpolation Without Any Intermediate Frame for 4D Medical Images
- arxiv url: http://arxiv.org/abs/2404.01464v1
- Date: Mon, 1 Apr 2024 20:25:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 20:37:09.837985
- Title: Data-Efficient Unsupervised Interpolation Without Any Intermediate Frame for 4D Medical Images
- Title(参考訳): 4次元医用画像の中間フレームのないデータ効率の良い教師なし補間
- Authors: JungEun Kim, Hangyul Yoon, Geondo Park, Kyungsu Kim, Eunho Yang,
- Abstract要約: 4次元医用画像は、時間情報を持つ3次元画像を表す。
UVI-Netは、中間フレームを必要とせずに、一時的なデータセットを容易にするフレームワークである。
- 参考スコア(独自算出の注目度): 30.503516093226438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 4D medical images, which represent 3D images with temporal information, are crucial in clinical practice for capturing dynamic changes and monitoring long-term disease progression. However, acquiring 4D medical images poses challenges due to factors such as radiation exposure and imaging duration, necessitating a balance between achieving high temporal resolution and minimizing adverse effects. Given these circumstances, not only is data acquisition challenging, but increasing the frame rate for each dataset also proves difficult. To address this challenge, this paper proposes a simple yet effective Unsupervised Volumetric Interpolation framework, UVI-Net. This framework facilitates temporal interpolation without the need for any intermediate frames, distinguishing it from the majority of other existing unsupervised methods. Experiments on benchmark datasets demonstrate significant improvements across diverse evaluation metrics compared to unsupervised and supervised baselines. Remarkably, our approach achieves this superior performance even when trained with a dataset as small as one, highlighting its exceptional robustness and efficiency in scenarios with sparse supervision. This positions UVI-Net as a compelling alternative for 4D medical imaging, particularly in settings where data availability is limited. The source code is available at https://github.com/jungeun122333/UVI-Net.
- Abstract(参考訳): 時間的情報を持つ3次元画像を表す4次元医用画像は、ダイナミックな変化を捉え、長期の疾患の進行を監視するための臨床実践において重要である。
しかし, 4次元医用画像の取得は, 高時間分解能の達成と副作用の最小化のバランスを取る必要があるため, 放射線曝露や撮像時間などの要因により課題が生じる。
このような状況下では、データ取得が困難なだけでなく、データセット毎のフレームレートの増加も困難である。
この課題に対処するために,UVI-Netという,シンプルで効果的なボリューム補間フレームワークを提案する。
このフレームワークは、いかなる中間フレームも必要とせず、時間的補間を促進する。
ベンチマークデータセットの実験では、教師なしベースラインや教師なしベースラインと比較して、さまざまな評価指標が大幅に改善されている。
注目すべきは、当社のアプローチがデータセットを1つも小さくトレーニングしても、この優れたパフォーマンスを実現していることだ。
これにより、UVI-Netは、4D医療画像の魅力的な代替品として位置づけられる。
ソースコードはhttps://github.com/jungeun122333/UVI-Netで入手できる。
関連論文リスト
- Scalable Drift Monitoring in Medical Imaging AI [37.1899538374058]
我々は,スケーラブルなドリフトモニタリングのための拡張フレームワークであるMCC+を開発した。
それは、医療画像AIモデルのためのリアルタイムドリフト検出を導入したCheXstrayフレームワークの上に構築されている。
MMC+は、継続的パフォーマンス監視の信頼性と費用対効果を提供する。
論文 参考訳(メタデータ) (2024-10-17T02:57:35Z) - Segmenting Medical Images with Limited Data [7.83073107607804]
データ効率医療セグメンタ(DEMS)と呼ばれる半教師付き一貫性に基づくアプローチを提案する。
DEMSはエンコーダ・デコーダアーキテクチャを備え、開発されているオンライン自動拡張器(OAA)と残留ロバストネス強化(RRE)ブロックを組み込んでいる。
極端なデータ不足のシナリオ下では、私たちのDEMSは、それぞれU-Netとトップパフォーマンスの最先端手法と比較して、ダイススコアが16.85%と10.37%向上しました。
論文 参考訳(メタデータ) (2024-07-12T11:41:18Z) - ImageFlowNet: Forecasting Multiscale Image-Level Trajectories of Disease Progression with Irregularly-Sampled Longitudinal Medical Images [44.107186498384024]
ImageFlowNetは、空間的詳細を保存しながら、初期画像から疾患軌跡を予測するために設計された新しいモデルである。
我々は、ODEの定式化を支援し、高レベルの視覚的特徴を含む正規化を動機付ける理論的洞察を提供する。
私たちのコントリビューションには、ImageFlowNetの開発、実世界のデータセットに関する理論的および実証的な検証が含まれています。
論文 参考訳(メタデータ) (2024-06-20T23:51:32Z) - Self-Supervised Learning for Interventional Image Analytics: Towards Robust Device Trackers [6.262161803642583]
我々は,1600万以上の干渉X線フレームからなる非常に大きなデータコホートから手続き的特徴を学習するための新しい手法を提案する。
本手法は,フレームベース再構成を利用してフレーム間時間対応を微妙に学習するマスク付き画像モデリング技術に基づいている。
実験の結果,提案手法は参照解に対する最大追従誤差を66.31%削減できることがわかった。
論文 参考訳(メタデータ) (2024-05-02T10:18:22Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Leveraging Neural Radiance Fields for Uncertainty-Aware Visual
Localization [56.95046107046027]
我々は,Neural Radiance Fields (NeRF) を用いてシーン座標回帰のためのトレーニングサンプルを生成することを提案する。
レンダリングにおけるNeRFの効率にもかかわらず、レンダリングされたデータの多くはアーティファクトによって汚染されるか、最小限の情報ゲインしか含まない。
論文 参考訳(メタデータ) (2023-10-10T20:11:13Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Learning to Exploit Temporal Structure for Biomedical Vision-Language
Processing [53.89917396428747]
視覚言語処理における自己教師あり学習は、画像とテキストのモダリティのセマンティックアライメントを利用する。
トレーニングと微調整の両方で利用できる場合、事前のイメージとレポートを明示的に説明します。
我々のアプローチはBioViL-Tと呼ばれ、テキストモデルと共同で訓練されたCNN-Transformerハイブリッドマルチイメージエンコーダを使用する。
論文 参考訳(メタデータ) (2023-01-11T16:35:33Z) - Self-Supervised Pretraining for 2D Medical Image Segmentation [0.0]
自己教師付き学習は、不正なデータに対して特定のドメインのモデルを事前訓練することで、手動でアノテートされたデータの必要性を下げる手段を提供する。
自然画像と対象領域固有の画像による自己教師付き事前学習は、最も速く、最も安定した下流収束をもたらす。
低データシナリオでは、教師付きImageNet事前トレーニングが最も正確であり、最小限のエラーに近づくためには100以上の注釈付きサンプルが必要である。
論文 参考訳(メタデータ) (2022-09-01T09:25:22Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。