論文の概要: Employing similarity to highlight differences: On the impact of
anatomical assumptions in chest X-ray registration methods
- arxiv url: http://arxiv.org/abs/2301.09338v2
- Date: Tue, 24 Jan 2023 10:18:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 15:04:10.289695
- Title: Employing similarity to highlight differences: On the impact of
anatomical assumptions in chest X-ray registration methods
- Title(参考訳): 差を強調するために類似性を用いる:胸部x線登録法における解剖学的仮定の影響について
- Authors: Astrid Berg, Eva Vandersmissen, Maria Wimmer, David Major, Theresa
Neubauer, Dimitrios Lenis, Jeroen Cant, Annemiek Snoeckx and Katja B\"uhler
- Abstract要約: 我々は,国立衛生研究所(NIH)データセット上に,解剖学的にペナル化した畳み込み型多段階解を開発した。
本手法は,ワープフィールドの折り畳み率を技術状態の1/6に制限する自然な方法であることを示す。
本手法の利点を統計的に評価し,胸部X線登録における現在使用されている指標の限界を強調した。
- 参考スコア(独自算出の注目度): 2.080328156648695
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To facilitate both the detection and the interpretation of findings in chest
X-rays, comparison with a previous image of the same patient is very valuable
to radiologists. Today, the most common approach for deep learning methods to
automatically inspect chest X-rays disregards the patient history and
classifies only single images as normal or abnormal. Nevertheless, several
methods for assisting in the task of comparison through image registration have
been proposed in the past. However, as we illustrate, they tend to miss
specific types of pathological changes like cardiomegaly and effusion. Due to
assumptions on fixed anatomical structures or their measurements of
registration quality, they produce unnaturally deformed warp fields impacting
visualization of differences between moving and fixed images. We aim to
overcome these limitations, through a new paradigm based on individual rib pair
segmentation for anatomy penalized registration. Our method proves to be a
natural way to limit the folding percentage of the warp field to 1/6 of the
state of the art while increasing the overlap of ribs by more than 25%,
implying difference images showing pathological changes overlooked by other
methods. We develop an anatomically penalized convolutional multi-stage
solution on the National Institutes of Health (NIH) data set, starting from
less than 25 fully and 50 partly labeled training images, employing sequential
instance memory segmentation with hole dropout, weak labeling, coarse-to-fine
refinement and Gaussian mixture model histogram matching. We statistically
evaluate the benefits of our method and highlight the limits of currently used
metrics for registration of chest X-rays.
- Abstract(参考訳): 胸部x線所見の検出と解釈を容易にするため、同じ患者の以前の画像との比較は放射線科医にとって非常に有用である。
現在、胸部X線を自動的に検査するディープラーニング手法の最も一般的なアプローチは、患者の歴史を無視し、単一の画像のみを正常または異常に分類するものである。
それにもかかわらず、画像登録による比較作業を支援するいくつかの方法が過去に提案されている。
しかし, 心内膜や灌流などの病理学的変化を見逃しがちである。
固定解剖学的構造の仮定や登録品質の測定により、動画像と固定画像の差異の可視化に影響を及ぼす不自然に変形したワープ場が生成される。
我々は,解剖学的ペナライズド登録のための個々のリブペアセグメンテーションに基づく新しいパラダイムを通じて,これらの制限を克服することを目指している。
本手法は,ワープフィールドの折り畳み率を術式の1/6に制限する自然な方法であり,リブの重なりを25%以上増加させ,他の方法で見落とされた病理像の相違を示唆するものである。
国立衛生研究所(NIH)データセット上で,25点未満から50点のラベル付きトレーニング画像から,ホールドロップアウト,弱いラベル付け,粗大な微細化,ガウス混合ヒストグラムマッチングを用いて,解剖学的にペナル化された畳み込み多段階解を開発した。
本手法の利点を統計的に評価し,現在使用されている胸部x線登録基準の限界を強調する。
関連論文リスト
- Significantly improving zero-shot X-ray pathology classification via fine-tuning pre-trained image-text encoders [50.689585476660554]
本稿では,正対損失緩和とランダムな文サンプリングを含む新たな微調整手法を提案する。
提案手法は,胸部X線データセットと3つの事前訓練モデル間のゼロショット病理分類を一貫して改善する。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Stain-invariant self supervised learning for histopathology image
analysis [74.98663573628743]
乳がんのヘマトキシリンおよびエオシン染色像におけるいくつかの分類課題に対する自己監督アルゴリズムを提案する。
本手法は,いくつかの乳がんデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-11-14T18:16:36Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Margin-Aware Intra-Class Novelty Identification for Medical Images [2.647674705784439]
ノベルティ検出のためのハイブリッドモデル-変換に基づく埋め込み学習(TEND)を提案する。
事前訓練されたオートエンコーダを画像特徴抽出器として、TENDは変換されたオートエンコーダから分布内データの特徴埋め込みを偽のアウト・オブ・ディストリビューション入力として識別する。
論文 参考訳(メタデータ) (2021-07-31T00:10:26Z) - GREN: Graph-Regularized Embedding Network for Weakly-Supervised Disease
Localization in X-ray images [35.18562405272593]
コンテキスト情報や補償情報として、クロスリージョンとクロスイメージの関係は、より一貫性のある統合された領域を得るために不可欠である。
胸部X線画像上の疾患の特定に画像内および画像間情報を活用するグラフ正規化埋め込みネットワーク(GREN)を提案する。
このことから,本研究はNIH胸部X線データを用いた軽度疾患局所化のための最先端の成果を得られた。
論文 参考訳(メタデータ) (2021-07-14T01:27:07Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Cross Chest Graph for Disease Diagnosis with Structural Relational
Reasoning [2.7148274921314615]
X線画像のコンピュータ診断において位置病変は重要である。
一般に弱教師付き手法はX線像の特性を考慮できなかった。
自動病変検出の性能を向上させるCross-chest Graph (CCG)を提案する。
論文 参考訳(メタデータ) (2021-01-22T08:24:04Z) - A New Window Loss Function for Bone Fracture Detection and Localization
in X-ray Images with Point-based Annotation [21.004545631297855]
本論文では, X線画像の骨破壊検出法について, 作業効率が高く柔軟なアノテーション法を提案する。
本手法では, 簡便で直感的, 有益なポイントベースのアノテーションプロトコルを用いて, ローカライズ情報をマークする。
骨盤X線像4410例に対して,本法を広範囲に評価した。
論文 参考訳(メタデータ) (2020-12-07T21:19:04Z) - Contralaterally Enhanced Networks for Thoracic Disease Detection [120.60868136876599]
胸骨、肺野、気管支管など、胸部左右に類似した構造が多数存在する。
このような類似性は、広義の放射線学者の経験から、胸部X線における疾患の同定に利用することができる。
本稿では,病状提案の特徴表現を強化するために,対向的コンテキスト情報を活用するディープ・エンド・ツー・エンド・モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-09T10:15:26Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。