論文の概要: Separation of target anatomical structure and occlusions in chest
radiographs
- arxiv url: http://arxiv.org/abs/2002.00751v1
- Date: Mon, 3 Feb 2020 14:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 08:12:03.730393
- Title: Separation of target anatomical structure and occlusions in chest
radiographs
- Title(参考訳): 胸部x線写真における標的解剖学的構造と咬合の分離
- Authors: Johannes Hofmanninger, Sebastian Roehrich, Helmut Prosch and Georg
Langs
- Abstract要約: 本稿では,無線画像から望ましくない視覚構造を抑圧する完全畳み込みネットワークを提案する。
提案アルゴリズムは高分解能CTスキャンから再構成されたラジオグラフィーと地上構造データを生成する。
- 参考スコア(独自算出の注目度): 2.0478628221188497
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chest radiographs are commonly performed low-cost exams for screening and
diagnosis. However, radiographs are 2D representations of 3D structures causing
considerable clutter impeding visual inspection and automated image analysis.
Here, we propose a Fully Convolutional Network to suppress, for a specific
task, undesired visual structure from radiographs while retaining the relevant
image information such as lung-parenchyma. The proposed algorithm creates
reconstructed radiographs and ground-truth data from high resolution CT-scans.
Results show that removing visual variation that is irrelevant for a
classification task improves the performance of a classifier when only limited
training data are available. This is particularly relevant because a low number
of ground-truth cases is common in medical imaging.
- Abstract(参考訳): 胸部X線写真は通常、スクリーニングと診断のために低コストで検査される。
しかし、ラジオグラフは3d構造の2次元表現であり、視覚検査や自動画像分析を妨げている。
そこで本研究では,肺パレンキマなどの画像情報を保持しつつ,X線写真からの望ましくない視覚構造を抑えるための完全畳み込みネットワークを提案する。
提案アルゴリズムは高分解能CTスキャンから再構成されたラジオグラフィーと地上データを生成する。
その結果,分類タスクに無関係な視覚的変化の除去は,限られた訓練データしか利用できない場合に,分類器の性能を向上させることがわかった。
医用画像では地中傷の頻度が低いため,特に関連性が高い。
関連論文リスト
- UMedNeRF: Uncertainty-aware Single View Volumetric Rendering for Medical
Neural Radiance Fields [38.62191342903111]
生成した放射場に基づく不確実性を考慮したMedNeRF(UMedNeRF)ネットワークを提案する。
我々は,CTプロジェクションレンダリングの結果を1つのX線で示し,生成した放射場に基づく他の手法との比較を行った。
論文 参考訳(メタデータ) (2023-11-10T02:47:15Z) - SdCT-GAN: Reconstructing CT from Biplanar X-Rays with Self-driven
Generative Adversarial Networks [6.624839896733912]
本稿では,3次元CT画像の再構成のための自己駆動型生成対向ネットワークモデル(SdCT-GAN)を提案する。
識別器に新しいオートエンコーダ構造を導入することにより、画像の詳細により多くの注意を払っている。
LPIPS評価基準は,既存画像よりも微細な輪郭やテクスチャを定量的に評価できる。
論文 参考訳(メタデータ) (2023-09-10T08:16:02Z) - Generation of Anonymous Chest Radiographs Using Latent Diffusion Models
for Training Thoracic Abnormality Classification Systems [7.909848251752742]
胸部X線写真における生体認証は、研究目的のためにそのようなデータの公開を妨げている。
この研究は、高品質なクラス条件画像の匿名胸部X線データセットを合成するために潜時拡散モデルを用いている。
論文 参考訳(メタデータ) (2022-11-02T17:43:02Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - Tubular Shape Aware Data Generation for Semantic Segmentation in Medical
Imaging [2.6673784948574215]
本稿では, 管状物体の合成データ生成手法を提案する。
提案手法は,ペア画像マスクデータの必要性を排除し,弱いラベル付きデータセットのみを必要とする。
X線画像における管およびカテーテルの分割作業に対するアプローチの適用性について報告する。
論文 参考訳(メタデータ) (2020-10-02T10:28:25Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。