論文の概要: One-Shot Object Localization in Medical Images based on Relative
Position Regression
- arxiv url: http://arxiv.org/abs/2012.07043v1
- Date: Sun, 13 Dec 2020 11:54:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 17:21:27.886069
- Title: One-Shot Object Localization in Medical Images based on Relative
Position Regression
- Title(参考訳): 相対的位置回帰に基づく医用画像のワンショット物体定位
- Authors: Wenhui Lei, Wei Xu, Ran Gu, Hao Fu, Shaoting Zhang, Guotai Wang
- Abstract要約: ボリューム医療画像における臓器局在とランドマーク局在のためのワンショットフレームワークを提示する。
私たちの主な考え方は、異なる人体の組織や臓器が、同様の相対的な位置と文脈を持っていることです。
ヘッド・アンド・ネック(HaN)CTボリュームからの多臓器局在化実験により,本手法は実時間で競合性能を得た。
- 参考スコア(独自算出の注目度): 17.251097303541002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning networks have shown promising performance for accurate object
localization in medial images, but require large amount of annotated data for
supervised training, which is expensive and expertise burdensome. To address
this problem, we present a one-shot framework for organ and landmark
localization in volumetric medical images, which does not need any annotation
during the training stage and could be employed to locate any landmarks or
organs in test images given a support (reference) image during the inference
stage. Our main idea comes from that tissues and organs from different human
bodies have a similar relative position and context. Therefore, we could
predict the relative positions of their non-local patches, thus locate the
target organ. Our framework is composed of three parts: (1) A projection
network trained to predict the 3D offset between any two patches from the same
volume, where human annotations are not required. In the inference stage, it
takes one given landmark in a reference image as a support patch and predicts
the offset from a random patch to the corresponding landmark in the test
(query) volume. (2) A coarse-to-fine framework contains two projection
networks, providing more accurate localization of the target. (3) Based on the
coarse-to-fine model, we transfer the organ boundingbox (B-box) detection to
locating six extreme points along x, y and z directions in the query volume.
Experiments on multi-organ localization from head-and-neck (HaN) CT volumes
showed that our method acquired competitive performance in real time, which is
more accurate and 10^5 times faster than template matching methods with the
same setting. Code is available: https://github.com/LWHYC/RPR-Loc.
- Abstract(参考訳): ディープラーニングネットワークは、中間画像における正確なオブジェクトのローカライゼーションに有望な性能を示しているが、教師付きトレーニングには大量の注釈データを必要とする。
そこで本研究では, トレーニング段階では注釈を必要とせず, 推定段階でサポート(参照)画像が与えられたテスト画像中のランドマークや臓器の特定に使用可能な, 体積医用画像における臓器とランドマークの局所化のためのワンショットフレームワークを提案する。
私たちの主な考え方は、異なる人体の組織や臓器が、同様の相対的な位置と文脈を持っていることです。
したがって、それらの非局所パッチの相対的な位置を予測でき、標的臓器を特定できる。
本フレームワークは3つの部分から構成される: (1) 人間のアノテーションを必要としない2つのパッチ間の3Dオフセットを予測するために訓練されたプロジェクションネットワーク。
推論段階では、参照画像内のあるランドマークをサポートパッチとして取得し、ランダムパッチからテスト(クエリ)ボリューム内の対応するランドマークへのオフセットを予測する。
2) 粗粒度フレームワークは2つのプロジェクションネットワークを含み, ターゲットのより正確なローカライゼーションを実現する。
(3) 粗大化モデルに基づいて,臓器境界箱(B-box)検出を問合せ量におけるx,y,z方向の6つの極点の位置に転送する。
ヘッド・アンド・ネック(HaN)CTボリュームからの複数臓器の局在化実験により,同一設定のテンプレートマッチング法よりも精度が高く,10^5の速度で競合性能が得られた。
コードはhttps://github.com/lwhyc/rpr-loc。
関連論文リスト
- Self-Supervised Alignment Learning for Medical Image Segmentation [26.114595114732644]
医用画像セグメンテーションのためのニューラルネットワークを事前学習するための,新たな自己教師付きアライメント学習フレームワークを提案する。
提案するフレームワークは,新たな局所的なアライメント損失とグローバルな位置損失から構成される。
実験の結果,提案したアライメント学習は,既存のCTおよびMRIデータセットの自己教師付き事前学習手法と競合することが示された。
論文 参考訳(メタデータ) (2024-06-22T00:47:39Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Keep Your Friends Close & Enemies Farther: Debiasing Contrastive
Learning with Spatial Priors in 3D Radiology Images [11.251405818285331]
本研究では,抽出した対応を利用して表現学習のためのより効果的な正負のサンプルを選択する3Dコントラストフレームワーク(Spade)を提案する。
最近の最先端のアプローチと比較して、Spadeは3つの下流セグメンテーションタスクにおいて顕著な改善を示している。
論文 参考訳(メタデータ) (2022-11-16T03:36:06Z) - KTN: Knowledge Transfer Network for Learning Multi-person 2D-3D
Correspondences [77.56222946832237]
画像中の複数の人物の密着度を検出するための新しい枠組みを提案する。
提案手法は知識伝達ネットワーク(KTN)の2つの問題に対処する。
特徴解像度を同時に維持し、背景画素を抑圧し、この戦略は精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-06-21T03:11:37Z) - Residual Moment Loss for Medical Image Segmentation [56.72261489147506]
位置情報は,対象物体の多様体構造を捉えた深層学習モデルに有効であることが証明された。
既存のほとんどの手法は、ネットワークが学習するために、位置情報を暗黙的にエンコードする。
セグメント化対象の位置情報を明示的に埋め込むために,新しい損失関数,すなわち残差モーメント(RM)損失を提案する。
論文 参考訳(メタデータ) (2021-06-27T09:31:49Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z) - Bidirectional RNN-based Few Shot Learning for 3D Medical Image
Segmentation [11.873435088539459]
対象臓器アノテーションの限られたトレーニングサンプルを用いて, 正確な臓器分類を行うための3次元ショットセグメンテーションフレームワークを提案する。
U-Netのようなネットワークは、サポートデータの2次元スライスとクエリイメージの関係を学習することでセグメンテーションを予測するように設計されている。
異なる臓器のアノテーションを付加した3つの3次元CTデータセットを用いて,提案モデルの評価を行った。
論文 参考訳(メタデータ) (2020-11-19T01:44:55Z) - Deep Reinforcement Learning for Organ Localization in CT [59.23083161858951]
我々はCTにおける臓器局所化のための深層強化学習手法を提案する。
この研究において、人工エージェントは、その主張や誤りから学習することで、CT内の臓器の局所化を積極的に行う。
本手法は,任意の臓器をローカライズするためのプラグイン・アンド・プレイモジュールとして利用できる。
論文 参考訳(メタデータ) (2020-05-11T10:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。