論文の概要: Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query
- arxiv url: http://arxiv.org/abs/2305.05598v1
- Date: Tue, 9 May 2023 16:46:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 12:01:12.644297
- Title: Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query
- Title(参考訳): 解剖学的問合せを用いた医用画像検索のための領域ベースコントラストプリトレーニング
- Authors: Ho Hin Lee, Alberto Santamaria-Pang, Jameson Merkow, Ozan Oktay,
Fernando P\'erez-Garc\'ia, Javier Alvarez-Valle, Ivan Tarapov
- Abstract要約: 医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
- 参考スコア(独自算出の注目度): 56.54255735943497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a novel Region-based contrastive pretraining for Medical Image
Retrieval (RegionMIR) that demonstrates the feasibility of medical image
retrieval with similar anatomical regions. RegionMIR addresses two major
challenges for medical image retrieval i) standardization of clinically
relevant searching criteria (e.g., anatomical, pathology-based), and ii)
localization of anatomical area of interests that are semantically meaningful.
In this work, we propose an ROI image retrieval image network that retrieves
images with similar anatomy by extracting anatomical features (via bounding
boxes) and evaluate similarity between pairwise anatomy-categorized features
between the query and the database of images using contrastive learning. ROI
queries are encoded using a contrastive-pretrained encoder that was fine-tuned
for anatomy classification, which generates an anatomical-specific latent space
for region-correlated image retrieval. During retrieval, we compare the
anatomically encoded query to find similar features within a feature database
generated from training samples, and retrieve images with similar regions from
training samples. We evaluate our approach on both anatomy classification and
image retrieval tasks using the Chest ImaGenome Dataset. Our proposed strategy
yields an improvement over state-of-the-art pretraining and co-training
strategies, from 92.24 to 94.12 (2.03%) classification accuracy in anatomies.
We qualitatively evaluate the image retrieval performance demonstrating
generalizability across multiple anatomies with different morphology.
- Abstract(参考訳): 同様の解剖学的領域における医用画像検索の可能性を示す,新しい領域ベースのコントラストプリトレーニング(regionmir)を提案する。
RegionMIRは医療画像検索における2つの課題に対処する
一 臨床関連検索基準(例えば解剖学、病理学に基づく)の標準化及び
二 意味的に有意義な興味の解剖学的領域の局在
本研究では,類似した解剖学的特徴を抽出し(バウンディングボックスを介して)、クエリと画像のデータベース間の相互解剖学的特徴の類似性を評価するROI画像検索画像ネットワークを提案する。
ROIクエリは、解剖学的分類のために微調整されたコントラスト予測エンコーダを用いて符号化され、領域関連画像検索のための解剖学的特有潜時空間を生成する。
検索中、解剖学的に符号化されたクエリを比較し、トレーニングサンプルから生成された特徴データベース内で類似した特徴を見つけ、トレーニングサンプルから類似領域の画像を取得する。
胸部imagenomeデータセットを用いた解剖分類と画像検索の両タスクにおけるアプローチを評価した。
提案手法は, 解剖学における92.24から94.12(2.03%)の分類精度において, 最先端の事前訓練, 共同訓練戦略の改善をもたらす。
形態の異なる複数の解剖群にまたがる一般化性を示す画像検索性能を質的に評価した。
関連論文リスト
- CTARR: A fast and robust method for identifying anatomical regions on CT images via atlas registration [0.09130220606101362]
我々はCT解剖学的領域認識のための新しい汎用手法であるCTARRを紹介する。
この方法は、ディープラーニングベースのCT画像解析パイプラインの事前処理ステップとして機能する。
提案手法は, アトラス登録に基づいて, 無ラベルCTスキャンから1つまたは複数の境界ボックスとして符号化された解剖学的領域を抽出する高速かつ堅牢な方法を提供する。
論文 参考訳(メタデータ) (2024-10-03T08:52:21Z) - Anatomy-guided Pathology Segmentation [56.883822515800205]
本研究では, 解剖学的特徴と病理学的情報を組み合わせた汎用的セグメンテーションモデルを構築し, 病理学的特徴のセグメンテーション精度を高めることを目的とする。
我々の解剖学・病理学交流(APEx)訓練では,ヒト解剖学の問合せ表現に結合特徴空間をデコードする問合せベースのセグメンテーション変換器を用いている。
これにより、FDG-PET-CTとChest X-Rayの病理分類タスクにおいて、強力なベースライン法に比べて最大3.3%のマージンで、ボード全体で最高の結果を報告できる。
論文 参考訳(メタデータ) (2024-07-08T11:44:15Z) - Content-Based Image Retrieval for Multi-Class Volumetric Radiology Images: A Benchmark Study [0.6249768559720122]
非医用画像上の事前訓練された教師なしモデルからの埋め込みに対して、医用画像上の事前訓練された教師なしモデルからの埋め込みをベンチマークした。
ボリューム画像の検索には,テキストマッチングにインスパイアされた遅延インタラクションのランク付け手法を採用する。
論文 参考訳(メタデータ) (2024-05-15T13:34:07Z) - Modality-Agnostic Structural Image Representation Learning for Deformable Multi-Modality Medical Image Registration [22.157402663162877]
本稿では,識別的・コントラスト的・非分散的な深部構造画像表現を学習するためのモダリティ非依存的構造表現学習法を提案する。
本手法は,従来の局所的構造表現や統計的類似度尺度よりも識別性と精度の点で優れている。
論文 参考訳(メタデータ) (2024-02-29T08:01:31Z) - Context-aware Self-supervised Learning for Medical Images Using Graph
Neural Network [24.890564475121238]
本稿では,2段階の自己指導型表現学習目標を用いた新しい手法を提案する。
グラフニューラルネットワークを用いて、異なる解剖学的領域間の関係を組み込む。
グラフの構造は、各患者と解剖学的アトラスの間の解剖学的対応によって通知される。
論文 参考訳(メタデータ) (2022-07-06T20:30:12Z) - Seeking Common Ground While Reserving Differences: Multiple Anatomy
Collaborative Framework for Undersampled MRI Reconstruction [49.16058553281751]
本稿では,解剖学的および解剖学的特化学習者による新しいMRI再構成フレームワークを提案する。
脳、膝、心臓のMRIデータセットの実験は、これらの学習者のうち3人が複数の解剖学的共同学習を通して再建性能を向上させることができることを示した。
論文 参考訳(メタデータ) (2022-06-15T08:19:07Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Context Matters: Graph-based Self-supervised Representation Learning for
Medical Images [21.23065972218941]
2段階の自己監督型表現学習目標を備えた新しいアプローチを紹介します。
グラフニューラルネットワークを用いて、異なる解剖学的領域間の関係を組み込む。
我々のモデルは、画像中の臨床的に関連のある領域を識別できる。
論文 参考訳(メタデータ) (2020-12-11T16:26:07Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。