論文の概要: One-Shot Medical Landmark Detection
- arxiv url: http://arxiv.org/abs/2103.04527v1
- Date: Mon, 8 Mar 2021 03:16:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 22:39:32.290205
- Title: One-Shot Medical Landmark Detection
- Title(参考訳): ワンショット医用ランドマーク検出
- Authors: Qingsong Yao, Quan Quan, Li Xiao, S. Kevin Zhou
- Abstract要約: 本研究では,Cased Comparing to Detect (CC2D) という,ランドマーク検出のための新しいフレームワークを提案する。
CC2Dは,1)自己指導学習(CC2D-SSL)と2)擬似ラベル(CC2D-TPL)の2段階からなる。
CC2Dの有効性は4.0mm以内の81.01%の競争の検出の正確さを達成する頭蓋骨のランドマークの検出の広く利用された公開データセットで評価されます。
- 参考スコア(独自算出の注目度): 11.213814977894314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of deep learning methods relies on the availability of a large
number of datasets with annotations; however, curating such datasets is
burdensome, especially for medical images. To relieve such a burden for a
landmark detection task, we explore the feasibility of using only a single
annotated image and propose a novel framework named Cascade Comparing to Detect
(CC2D) for one-shot landmark detection. CC2D consists of two stages: 1)
Self-supervised learning (CC2D-SSL) and 2) Training with pseudo-labels
(CC2D-TPL). CC2D-SSL captures the consistent anatomical information in a
coarse-to-fine fashion by comparing the cascade feature representations and
generates predictions on the training set. CC2D-TPL further improves the
performance by training a new landmark detector with those predictions. The
effectiveness of CC2D is evaluated on a widely-used public dataset of
cephalometric landmark detection, which achieves a competitive detection
accuracy of 81.01\% within 4.0mm, comparable to the state-of-the-art
fully-supervised methods using a lot more than one training image.
- Abstract(参考訳): ディープラーニング手法の成功は、多くのデータセットがアノテーション付きで利用可能であることに依存しているが、このようなデータセットのキュレーションは、特に医療画像において、面倒な作業である。
ランドマーク検出タスクの負担を軽減するため,1つの注釈付き画像のみを使用することの実現可能性を検討するとともに,ワンショットランドマーク検出のためのCascade Comparisoning to Detect (CC2D) という新しいフレームワークを提案する。
CC2Dは,1)自己指導学習(CC2D-SSL)と(2)擬似ラベル学習(CC2D-TPL)の2段階からなる。
CC2D-SSLは、カスケードの特徴表現を比較して、一貫性のある解剖情報を粗い方法でキャプチャし、トレーニングセット上で予測を生成する。
CC2D-TPLはこれらの予測で新しいランドマーク検出器を訓練することで性能をさらに向上させる。
CC2Dの有効性は4.0mm以内で81.01\%の競合検出精度を達成し、多くの訓練画像を用いた最先端の完全教師付き手法に匹敵するものである。
関連論文リスト
- FM-OSD: Foundation Model-Enabled One-Shot Detection of Anatomical Landmarks [44.54301473673582]
医用画像のランドマーク検出を高精度に行うための,最初の基礎モデル付きワンショットランドマーク検出(FM-OSD)フレームワークを提案する。
本手法は,単一のテンプレート画像のみを用いることで,最先端のワンショットランドマーク検出法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-07-07T15:37:02Z) - A Closer Look at Spatial-Slice Features Learning for COVID-19 Detection [8.215897530386343]
我々は,CTスキャンに特化して設計されたSpatial-Slice Feature Learning (SSFL++) フレームワークを提案する。
本研究の目的は,全CTスキャンでOODデータをフィルタリングし,70%の冗長性を完全に低減し,解析のための重要な空間スライスを選択することである。
実験では、トレーニングデータの1%しか持たない単純なE2D(EfficientNet-2D)モデルを用いて、我々のモデルの有望な性能を実証した。
論文 参考訳(メタデータ) (2024-04-02T05:19:27Z) - Simple 2D Convolutional Neural Network-based Approach for COVID-19 Detection [8.215897530386343]
本研究では,肺CT画像解析におけるディープラーニング技術の利用について検討した。
我々は,CTスキャンに適した高度な空間スライス特徴学習(SSFL++)フレームワークを提案する。
本研究の目的は,CTスキャン全体のアウト・オブ・ディストリビューション(OOD)データをフィルタリングし,データ冗長性を70%削減して解析に不可欠な空間スライス特徴を選択することである。
論文 参考訳(メタデータ) (2024-03-17T14:34:51Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - Relative distance matters for one-shot landmark detection [16.032695993409853]
訓練段階において, 簡易効率の相対距離バイアスを組み込むことで, 検出値(CC2D)をバージョンIIと比較したカスケードをアップグレードする。
CC2Dv2は正しいランドマークから遠く離れた地点を検出できない。
我々は,下肢の生体力学的パラメータを測定するための,オープンソースのランドマークラベル付きデータセットを提案する。
論文 参考訳(メタデータ) (2022-03-03T12:50:56Z) - Dense Label Encoding for Boundary Discontinuity Free Rotation Detection [69.75559390700887]
本稿では,分類に基づく比較的研究の少ない方法論について検討する。
我々は2つの側面でフロンティアを推し進めるための新しい手法を提案する。
航空画像のための大規模公開データセットの実験と視覚解析は,我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2020-11-19T05:42:02Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - BiDet: An Efficient Binarized Object Detector [96.19708396510894]
本稿では,効率的な物体検出のためのバイナライズニューラルネットワークのBiDetを提案する。
我々のBiDetは、冗長除去による物体検出にバイナリニューラルネットワークの表現能力を完全に活用している。
我々の手法は、最先端のバイナリニューラルネットワークを大きなマージンで上回る。
論文 参考訳(メタデータ) (2020-03-09T08:16:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。