論文の概要: Landmarks Are Alike Yet Distinct: Harnessing Similarity and Individuality for One-Shot Medical Landmark Detection
- arxiv url: http://arxiv.org/abs/2503.16058v1
- Date: Thu, 20 Mar 2025 11:46:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:33:52.827932
- Title: Landmarks Are Alike Yet Distinct: Harnessing Similarity and Individuality for One-Shot Medical Landmark Detection
- Title(参考訳): ランドマークはちょっと違う。ワンショットの医療用ランドマーク検出の類似性と個人性
- Authors: Xu He, Zhen Huang, Qingsong Yao, Xiaoqian Zhou, S. Kevin Zhou,
- Abstract要約: 複数のランドマークを同時に検出するためのトレーニングモデルは、しばしば「シーソー現象」に遭遇する
我々は「ランドマークは別物」という信念に基づく新しいアプローチを提案する。
モデルパラメータを効率的に共有するために,共有重みとランドマーク固有の重みを組み合わせたアダプタベース融合モデルを提案する。
- 参考スコア(独自算出の注目度): 21.120831830200544
- License:
- Abstract: Landmark detection plays a crucial role in medical imaging applications such as disease diagnosis, bone age estimation, and therapy planning. However, training models for detecting multiple landmarks simultaneously often encounters the "seesaw phenomenon", where improvements in detecting certain landmarks lead to declines in detecting others. Yet, training a separate model for each landmark increases memory usage and computational overhead. To address these challenges, we propose a novel approach based on the belief that "landmarks are distinct" by training models with pseudo-labels and template data updated continuously during the training process, where each model is dedicated to detecting a single landmark to achieve high accuracy. Furthermore, grounded on the belief that "landmarks are also alike", we introduce an adapter-based fusion model, combining shared weights with landmark-specific weights, to efficiently share model parameters while allowing flexible adaptation to individual landmarks. This approach not only significantly reduces memory and computational resource requirements but also effectively mitigates the seesaw phenomenon in multi-landmark training. Experimental results on publicly available medical image datasets demonstrate that the single-landmark models significantly outperform traditional multi-point joint training models in detecting individual landmarks. Although our adapter-based fusion model shows slightly lower performance compared to the combined results of all single-landmark models, it still surpasses the current state-of-the-art methods while achieving a notable improvement in resource efficiency.
- Abstract(参考訳): ランドマーク検出は、疾患診断、骨年齢推定、治療計画などの医療画像の応用において重要な役割を担っている。
しかし、複数のランドマークを同時に検出するためのトレーニングモデルは、「シーソー現象」に遭遇することが多く、あるランドマークを検出することの改善は、他のランドマークを検出することの減少につながる。
しかし、各ランドマークごとに別々のモデルをトレーニングすることで、メモリ使用量と計算オーバーヘッドが増加する。
これらの課題に対処するために、トレーニングプロセス中に擬似ラベルとテンプレートデータを継続的に更新したトレーニングモデルによる「ランドマークは別物である」という信念に基づく新しいアプローチを提案する。
さらに、「ランドマークも似ている」という信念に基づいて、共有重みとランドマーク固有の重みを組み合わせたアダプタベースの融合モデルを導入し、モデルのパラメータを効率的に共有し、個々のランドマークへの柔軟な適応を可能にする。
このアプローチはメモリと計算資源の要求を大幅に削減するだけでなく、マルチランドマークトレーニングにおけるシーソー現象を効果的に軽減する。
公開されている医用画像データセットの実験結果から、単一ランドマークモデルは、個々のランドマークを検出するために、従来の多点共同トレーニングモデルよりも大幅に優れていることが示された。
アダプタベースの核融合モデルでは, 単一ランドマークモデルと組み合わせた結果に比べて若干性能が低下するが, 資源効率の顕著な向上を図りながら, 現在でも最先端の手法に勝っている。
関連論文リスト
- Weakly supervised deep learning model with size constraint for prostate cancer detection in multiparametric MRI and generalization to unseen domains [0.90668179713299]
本モデルでは, 完全教師付きベースラインモデルにより, オンパー性能が向上することを示す。
また、未確認データドメインでテストした場合、完全に教師付きモデルと弱い教師付きモデルの両方のパフォーマンス低下も観察する。
論文 参考訳(メタデータ) (2024-11-04T12:24:33Z) - Synthetic Augmentation for Anatomical Landmark Localization using DDPMs [0.22499166814992436]
拡散型生成モデルは近年,高品質な合成画像を生成する能力に注目が集まっている。
ランドマークマッチングのためのマルコフランダムフィールド(MRF)モデルと統計的形状モデル(SSM)を用いて,生成画像の品質を評価する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-16T12:09:38Z) - Salt & Pepper Heatmaps: Diffusion-informed Landmark Detection Strategy [6.276791657895805]
解剖学的ランドマーク検出(Anatomical Landmark Detection)は、臨床測定のための画像の重要な領域を特定するプロセスである。
機械学習モデルは、ヒートマップで表される確率領域としてランドマークの軌跡を予測する。
我々は,自動解剖学的ランドマーク検出を高精度な生成モデルタスクとして再構成し,数ドットのヒートマップを生成する。
論文 参考訳(メタデータ) (2024-07-12T11:50:39Z) - FM-OSD: Foundation Model-Enabled One-Shot Detection of Anatomical Landmarks [44.54301473673582]
医用画像のランドマーク検出を高精度に行うための,最初の基礎モデル付きワンショットランドマーク検出(FM-OSD)フレームワークを提案する。
本手法は,単一のテンプレート画像のみを用いることで,最先端のワンショットランドマーク検出法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-07-07T15:37:02Z) - Optimizing OOD Detection in Molecular Graphs: A Novel Approach with Diffusion Models [71.39421638547164]
本稿では,入力分子と再構成グラフの類似性を比較する補助拡散モデルに基づくフレームワークを用いてOOD分子を検出することを提案する。
IDトレーニングサンプルの再構成に向けた生成バイアスのため、OOD分子の類似度スコアは検出を容易にするためにはるかに低い。
本研究は,PGR-MOOD(PGR-MOOD)とよばれる分子OOD検出のためのプロトタイプグラフ再構成のアプローチを開拓し,3つのイノベーションを生かした。
論文 参考訳(メタデータ) (2024-04-24T03:25:53Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - From Global to Local: Multi-scale Out-of-distribution Detection [129.37607313927458]
アウト・オブ・ディストリビューション(OOD)検出は、イン・ディストリビューション(ID)トレーニングプロセス中にラベルが見られない未知のデータを検出することを目的としている。
近年の表現学習の進歩により,距離に基づくOOD検出がもたらされる。
グローバルな視覚情報と局所的な情報の両方を活用する第1のフレームワークであるマルチスケールOOD検出(MODE)を提案する。
論文 参考訳(メタデータ) (2023-08-20T11:56:25Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。