論文の概要: Multi-Target Landmark Detection with Incomplete Images via Reinforcement
Learning and Shape Prior
- arxiv url: http://arxiv.org/abs/2301.05392v1
- Date: Fri, 13 Jan 2023 05:20:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 14:17:11.143376
- Title: Multi-Target Landmark Detection with Incomplete Images via Reinforcement
Learning and Shape Prior
- Title(参考訳): 強化学習と形状事前による不完全画像によるマルチターゲットランドマーク検出
- Authors: Kaiwen Wan, Lei Li, Dengqiang Jia, Shangqi Gao, Wei Qian, Yingzhi Wu,
Huandong Lin, Xiongzheng Mu, Xin Gao, Sijia Wang, Fuping Wu and Xiahai Zhuang
- Abstract要約: マルチターゲットランドマーク検出を同時に行うための強化学習フレームワークを提案する。
このフレームワークは不完全あるいは(そして)完全なイメージから学習し、グローバルな構造に関する暗黙の知識を形成する。
提案手法は,未完成なトレーニング画像を用いて,最大80%の欠落率でランドマークの集合を予測できることを示す。
- 参考スコア(独自算出の注目度): 25.6368611769491
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Medical images are generally acquired with limited field-of-view (FOV), which
could lead to incomplete regions of interest (ROI), and thus impose a great
challenge on medical image analysis. This is particularly evident for the
learning-based multi-target landmark detection, where algorithms could be
misleading to learn primarily the variation of background due to the varying
FOV, failing the detection of targets. Based on learning a navigation policy,
instead of predicting targets directly, reinforcement learning (RL)-based
methods have the potential totackle this challenge in an efficient manner.
Inspired by this, in this work we propose a multi-agent RL framework for
simultaneous multi-target landmark detection. This framework is aimed to learn
from incomplete or (and) complete images to form an implicit knowledge of
global structure, which is consolidated during the training stage for the
detection of targets from either complete or incomplete test images. To further
explicitly exploit the global structural information from incomplete images, we
propose to embed a shape model into the RL process. With this prior knowledge,
the proposed RL model can not only localize dozens of targetssimultaneously,
but also work effectively and robustly in the presence of incomplete images. We
validated the applicability and efficacy of the proposed method on various
multi-target detection tasks with incomplete images from practical clinics,
using body dual-energy X-ray absorptiometry (DXA), cardiac MRI and head CT
datasets. Results showed that our method could predict whole set of landmarks
with incomplete training images up to 80% missing proportion (average distance
error 2.29 cm on body DXA), and could detect unseen landmarks in regions with
missing image information outside FOV of target images (average distance error
6.84 mm on 3D half-head CT).
- Abstract(参考訳): 医用画像は一般に視野限定(FOV)で取得され、不完全な関心領域(ROI)につながる可能性があるため、医用画像解析に大きな課題が生じる。
これは、学習ベースのマルチターゲットランドマーク検出において特に顕著であり、アルゴリズムは様々なFOVによる背景の変化を主に学習するために誤解を招く可能性がある。
ナビゲーションポリシーの学習に基づいて、ターゲットを直接予測するのではなく、強化学習(rl)ベースの手法は、この課題を効率的に解き放つ可能性を秘めている。
そこで本研究では,マルチターゲットランドマーク検出を同時に行うマルチエージェントRLフレームワークを提案する。
このフレームワークは、不完全または(そして)完全なイメージから学習して、グローバル構造に関する暗黙の知識を形成することを目的としており、これは、完全なテストイメージまたは不完全テストイメージからターゲットを検出するためのトレーニング段階で統合される。
不完全な画像からグローバルな構造情報をさらに明確に活用するために、形状モデルをRLプロセスに組み込むことを提案する。
この事前知識により、提案したRLモデルは、数十のターゲットを同時にローカライズするだけでなく、不完全画像の存在下で効果的かつ堅牢に機能する。
本手法の適用性と有効性を検証するため,体2エネルギーx線アブソルプティメトリー(dxa),心臓mri,頭部ctデータを用いて,診療所から不完全画像を含む多目的検出タスクに適用した。
その結果, 被写体dxaにおける平均距離誤差2.29 cm, 被写体dxaにおける平均距離誤差2.29 cm) を最大80%のトレーニング画像で推定し, 対象画像のfov外における画像情報欠落領域における未発見のランドマークを検出することができた(3次元半頭ctでは平均距離誤差6.84 mm)。
関連論文リスト
- Abnormality-Driven Representation Learning for Radiology Imaging [0.8321462983924758]
病変強調型コントラスト学習(LeCL)は,CTスキャンの異なる部位にわたる2次元軸方向スライスにおける異常により引き起こされる視覚的表現を得るための新しい手法である。
本研究は, 腫瘍病変位置, 肺疾患検出, 患者ステージングの3つの臨床的課題に対するアプローチを, 最先端の4つの基礎モデルと比較した。
論文 参考訳(メタデータ) (2024-11-25T13:53:26Z) - Contrasting Deepfakes Diffusion via Contrastive Learning and Global-Local Similarities [88.398085358514]
Contrastive Deepfake Embeddings (CoDE)は、ディープフェイク検出に特化した新しい埋め込み空間である。
CoDEは、グローバルローカルな類似性をさらに強化することで、対照的な学習を通じて訓練される。
論文 参考訳(メタデータ) (2024-07-29T18:00:10Z) - Adapting Visual-Language Models for Generalizable Anomaly Detection in Medical Images [68.42215385041114]
本稿では,CLIPモデルを用いた医用異常検出のための軽量な多レベル適応と比較フレームワークを提案する。
提案手法では,複数の残像アダプタを事前学習した視覚エンコーダに統合し,視覚的特徴の段階的向上を実現する。
医学的異常検出ベンチマーク実験により,本手法が現在の最先端モデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-03-19T09:28:19Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Unleash the Potential of Image Branch for Cross-modal 3D Object
Detection [67.94357336206136]
画像分岐のポテンシャルを2つの側面から解き放つことを目的として,新しい3Dオブジェクト検出器UPIDetを提案する。
まず、UPIDetは正規化された局所座標写像推定と呼ばれる新しい2次元補助タスクを導入する。
第2に,イメージブランチのトレーニング目標から逆転する勾配によって,ポイントクラウドバックボーンの表現能力を向上できることを見出した。
論文 参考訳(メタデータ) (2023-01-22T08:26:58Z) - Self-Supervised-RCNN for Medical Image Segmentation with Limited Data
Annotation [0.16490701092527607]
ラベルなしMRIスキャンによる自己教師付き事前学習に基づく新たなディープラーニング学習戦略を提案する。
我々の事前学習アプローチはまず、ラベルのない画像のランダム領域に異なる歪みをランダムに適用し、次に歪みの種類と情報の損失を予測する。
異なる事前学習シナリオと微調整シナリオにおけるセグメンテーション課題に対する提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-07-17T13:28:52Z) - An Efficient Anchor-free Universal Lesion Detection in CT-scans [19.165942326142538]
そこで本研究では, 種々の病変の規模にまたがって良好に機能する, 頑健な1段階のアンカーフリー病変検出ネットワークを提案する。
我々は最先端の手法に匹敵する結果を得、DeepLesionデータセットで全体の感度は86.05%に達する。
論文 参考訳(メタデータ) (2022-03-30T06:01:04Z) - Self-Attentive Spatial Adaptive Normalization for Cross-Modality Domain
Adaptation [9.659642285903418]
放射線科医の費用負担を軽減するための医用画像のクロスモダリティ合成
本稿では,教師なしまたは教師なし(非ペア画像データ)の設定が可能な医用画像における画像から画像への変換手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T16:22:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。